Aufgaben zur Höheren Mathematik: Für Ingenieure, Physiker und Mathematiker [2. Aufl.] 9783486858167, 9783486749106

Diese einzigartige Sammlung von mehr als 300 vollständig gelösten Aufgaben wendet sich an Studierende der Ingenieur- und

254 52 2MB

German Pages 258 [259] Year 2013

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Aufgaben zur Höheren Mathematik: Für Ingenieure, Physiker und Mathematiker [2. Aufl.]
 9783486858167, 9783486749106

Table of contents :
Vorwort
Vorwort zur zweiten Auflage
1 Vektoranalysis
1.1 Gradient, Divergenz, Rotation
1.2 Kurvenintegrale
1.3 Potential, Vektorpotential
1.4 Oberflächenintegrale
1.5 Volumenintegrale
1.6 Satz von Green
1.7 Divergenzsatz von Gauß
1.8 Satz von Stokes
1.9 Maxwellsche Gleichungen
2 Lineare Gleichungssysteme
2.1 Numerisches Rechnen
2.2 Numerik linearer Gleichungssysteme
2.3 Gaußsches Eliminationsverfahren
2.4 QR–Zerlegung
2.5 Positiv–definite Matrizen
2.6 Verfahren von Cholesky
2.7 Vektor– und Matrix–Norm, Kondition
2.8 Der Satz von Prager und Oettli
2.9 Gesamt– und Einzelschrittverfahren
2.10 Das Youngsche SOR–Verfahren
2.11 cg–Verfahren
3 Matrizeneigenwerte
3.1 Grundlegende Beispiele
3.2 Eigenwert–Abschätzung
3.3 Verfahren von Wilkinson und Householder
3.4 QR–Verfahren
3.5 Jacobi–Verfahren
3.6 Verfahren von Hyman
3.7 Von–Mises–Verfahren
3.8 Rayleigh–Quotient
3.9 Inverse Iteration
3.10 Deflation
4 Lineare Optimierung
4.1 Einführungsaufgabe
4.2 Das Simplex–Tableau
4.3 Anwendungsaufgaben
5 Interpolation
5.1 Newton–Interpolation
5.2 Hermite–Interpolation
5.3 Spline–Funktionen
6 Numerische Quadratur
6.1 Interpolatorische Quadraturformeln
6.2 Gaußsche Quadraturformeln
Literaturverzeichnis
Sachverzeichnis
Index

Citation preview

Aufgaben zur Höheren Mathematik Für Ingenieure, Physiker und Mathematiker von

Dr. Dr. h.c. Norbert Herrmann Universität Hannover

Oldenbourg Verlag München

Lektorat: Johannes Breimeier, Dr. Gerhard Pappert Herstellung: Tina Bonertz Einbandgestaltung: hauser lacour Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechts. © 2014 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 143, 81671 München, Deutschland www.degruyter.com/oldenbourg Ein Unternehmen von De Gruyter Gedruckt in Deutschland Dieses Papier ist alterungsbeständig nach DIN/ISO 9706.

ISBN 978-3-486-74910-6 eISBN 978-3-486-85816-7

Inhaltsverzeichnis Vorwort

VII

Vorwort zur zweiten Auflage

IX

1

Vektoranalysis

1

1.1

Gradient, Divergenz, Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Kurvenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

1.3

Potential, Vektorpotential . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

1.4

Oberflächenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

1.5

Volumenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

1.6

Satz von Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

1.7

Divergenzsatz von Gauß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

1.8

Satz von Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

56

1.9

Maxwellsche Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

64

2

Lineare Gleichungssysteme

69

2.1

Numerisches Rechnen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69

2.2

Numerik linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

72

2.3

Gaußsches Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

76

2.4

QR–Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

86

2.5

Positiv–definite Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

92

2.6

Verfahren von Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

95

2.7

Vektor– und Matrix–Norm, Kondition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

2.8

Der Satz von Prager und Oettli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

2.9

Gesamt– und Einzelschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

2.10

Das Youngsche SOR–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

2.11

cg–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

VI

Inhaltsverzeichnis

3

Matrizeneigenwerte

135

3.1

Grundlegende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

3.2

Eigenwert–Abschätzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

3.3

Verfahren von Wilkinson und Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

3.4

QR–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

3.5

Jacobi–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

3.6

Verfahren von Hyman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

3.7

Von–Mises–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

3.8

Rayleigh–Quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

3.9

Inverse Iteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

3.10

Deflation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

4

Lineare Optimierung

4.1

Einführungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

4.2

Das Simplex–Tableau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192

4.3

Anwendungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

5

Interpolation

5.1

Newton–Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

5.2

Hermite–Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218

5.3

Spline–Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

6

Numerische Quadratur

6.1

Interpolatorische Quadraturformeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233

6.2

Gaußsche Quadraturformeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

189

211

233

Literaturverzeichnis

245

Sachverzeichnis

247

Index

247

Vorwort Der vorliegende erste Band einer Sammlung von mehr als 250 vollständig gelösten Aufgaben zur Höheren Mathematik für Ingenieure entstand während meiner Tätigkeit als Mitarbeiter am Institut für Angewandte Mathematik der Universität Hannover. Hier betreue ich seit 1989 Studentinnen und Studenten der Elektrotechnik in ihrem zweiten Studienjahr und versuche, ihnen den manchmal trocken erscheinenden Stoff der Mathematik mit Beispielen und Übungsaufgaben verständlicher zu machen. Bewusst habe ich dieses Buch als Sammlung von Aufgaben konzipiert und wollte kein neues Lehrbuch schreiben. Einmal hätte das nicht meiner Tätigkeit und damit meiner Erfahrung entsprochen, und zum zweiten gibt es davon reichlich auf dem Markt (vgl. das Literaturverzeichnis am Ende des Buches), wenn auch ein einheitliches Werk, in dem neben der Analysis und der Algebra die Numerische Mathematik gebührend zu Wort kommt, fehlt. Zum dritten habe ich oft von Studierenden gehört, dass sie sich gerne den Stoff mit Hilfe von Übungsaufgaben aneignen. Sie seien dann näher an der Praxis. Auch fällt es vielen leichter, eine abstrakte Definition oder einen sauber formulierten Satz an Hand eines Beispiels zu durchdringen. Trotzdem habe ich die entscheidenden Zusammenhänge — durch einen Rahmen hervorgehoben — in die Lösungen der Aufgaben eingestreut. Manchmal sind auch Beweise von wichtigen Ergebnissen als Aufgaben getarnt. Dadurch wird aber keinesfalls eine vollständige Auflistung aller mathematischen Sätze erreicht. Hier hilft tatsächlich nur die dringend angeratene Begleitlektüre eines guten Lehrbuchs. Dieser erste Band enthält Aufgaben zu den grundlegenden Kapiteln der Höheren Mathematik. Da ist zunächst die Vektoranalysis, die bis zu den Maxwellschen Gleichungen führt. Es folgen ’Lineare Gleichungssysteme’ und ’Matrizeneigenwertaufgaben’. Im Kapitel ’Lineare Optimierung’ wird der Simplex–Algorithmus an vielen Beispielen in einer leicht programmierbaren Form vorgeführt. Das Kapitel ’Interpolation’ enthält als Schwerpunkt Spline–Funktionen, während das Kapitel ’Numerische Quadratur’ neben den interpolatorischen Quadraturformeln vor allem die Gauß–Quadratur beschreibt. Damit sind die Grundlagen gelegt, um sich im folgenden u. a. mit der Numerik von gewöhnlichen und partiellen Differentialgleichungen auseinanderzusetzen. Dieses weite Feld wird im zweiten Band behandelt. Dort findet man auch Aufgaben zu Laplace– und Fourier–Transformationen, Distributionen und zur Variationsrechnung. Damit richtet sich dieses Buch in erster Linie an Studierende der Ingenieurwissenschaften. Genau so können aber auch Studierende der Naturwissenschaften Gewinn aus diesen Aufgaben ziehen. Ja, ich denke, selbst Studierende der Mathematik finden hier viele

VIII

Vorwort

Aufgaben, die sie zwar theoretisch durchdrungen, aber praktisch selten erprobt haben. Welcher Mathematikstudent hat schon mal ernstlich den Gaußschen Integralsatz angewendet? Danken möchte ich zunächst allen Studierenden, die mich bei der Erstellung dieser Sammlung zum Teil mit Diskussionen und Ratschlägen, aber besonders mit der Suche nach Fehlern unterstützt haben. Sicherlich sind noch einige Bonbons zu gewinnen, und ich bin weiterhin für Hinweise auf Fehler dankbar. Ein weiterer Dank gilt meinem Schwiegervater, Johannes Döring, der das Manuskript mit großer Sorgfalt Korrektur gelesen hat. Danken möchte ich schließlich auch meiner Frau, die viel Verständnis dafür aufgebracht hat, dass ich abends das Manuskript in LATEX übertrug, statt den Feierabend mit ihr gemeinsam zu genießen. Auch dem Oldenbourg Verlag möchte ich danken für die schnelle Entscheidung, dieses Buch in das Verlagsangebot zu übernehmen, und die stets unkomplizierte Art, auftretende Probleme zu entschärfen. Mein wichtigstes Bemühen bestand darin zu vermitteln, dass unsere Mathematik keine tote, sondern eine überaus lebendige und sehr spannende Wissenschaft ist. Wenn auch noch andere Studierende, die dieses Buch lesen, bei der Lektüre ab und zu schmunzeln können, wie mir ein Student schrieb, ist ein weiteres Anliegen erreicht.

Norbert Herrmann

Vorwort zur zweiten Auflage Für jeden Autor ist es eine besondere Freude, eine zweite Auflage eines Buches vorzubereiten. Diesmal war es allerdings mit erheblichem Aufwand verbunden, weil meine eifrigen Studierenden sehr viele Fehler, vor allem Druckfehler in der ersten Auflage ausfindig gemacht hatten. Meine Idee, für jeden neuen mirt gemeldeten Fehler ein Bonbon zu verteilen , erwies sich dabai als sehr glücklich. Das so entstandene Korrekturexemplar diente jetzt als ausgezechnete Grundlage, viele Einzelheiten des Buches zu verbessern. Sicherlich werden aufmerksame Leserinnen und Leser immer noch Fehler finden oder Verbesserungsvorschläge haben. Bitte zögern Sie nicht, mir so etwas mitzuteilen. Meine Kontaktdaten finden Sie auf meiner homepage www.mathematikistueberall.de Seit Erscheinen der ersten Auflage ist auch ein Lehrbuch genau zu den hier behandelten Aufgaben erschienen. 2004 brachte der Oldenbourg Verlag das Buch auf den Markt, für das ich schon 2007 die zweite Auflage erstellt habe. Sie finden es im Literaturverzeichnis unter der Nummer [11]. Für das Kapitel ‚Vektoranalysis‘ finden Sie alle Grundlagen im Buch [15]. Ich wünsche allen Leserinnen und Lesern weiterhin viel Erfolg in der Mathematik. Norbert Herrmann

1

Vektoranalysis

1.1

Gradient, Divergenz, Rotation

Aufgabe 1.1 Stellen Sie die Begriffe Skalarfeld, Vektorfeld, Potentialfeld und Vektorpotentialfeld zusammen, und erläutern Sie den Begriff C k –Feld. Lösung: Den Feldbegriff findet man häufig in den Anwendungen, seltener in der mathematischen Literatur. Man versteht darunter eine von Ort zu Ort veränderliche Grösse, was mathematisch nichts anderes bedeutet als eine Funktion von Ort (und Zeit). Unter einem Skalar versteht man gemeinhin eine reelle oder komplexe Zahl. So ergibt sich die folgende Erklärung:

Feldbegriff Skalarfeld: f : (x, y, z) → IR Vektorfeld: ~v = (v1 , v2 , v3 ) : (x, y, z) → IR3

Potentialfeld Ein Vektorfeld ~v heißt Potentialfeld, wenn es eine Funktion ϕ gibt mit ~v = grad ϕ. Die Funktion ϕ heißt dann ein Potential von ~v . Vektorpotentialfeld Ein Vektorfeld ~v heißt Vektorpotentialfeld, wenn es ein Vektorfeld w ~ gibt mit ~v = rot w. ~ Das Vektorfeld w ~ heißt dann ein Vektorpotential von ~v .

2

1 Vektoranalysis

Das in der folgenden Erklärung benutzte Symbol C rührt vom englischen Wort ‘continuous’ (stetig) her. C k –Feld Ein Skalar– bzw. ein Vektorfeld heißt C k –Feld, wenn f bzw. ~v k–mal stetig differenzierbar ist, wenn also die k–te Ableitung von f bzw. wenn die k–ten partiellen Ableitungen von ~v existieren und stetig sind. Aufgabe 1.2 Bestimmen Sie jeweils das vollständige oder totale Differential der Funktionen (a) f (x1 , x2 , x3 ) = ln

p x21 + x22 + x23 ,

(b) f (x1 , x2 , x3 , t) = √

1 . x21 +x22 +x23 +t2

Lösung: Das vollständige Differential einer Funktion f = f (x1 , x2 , x3 ) lautet: Vollständiges oder totales Differential df =

Zu (a) f (x1 , x2 , x3 ) = ln

p

∂f ∂f ∂f dx1 + dx2 + dx3 ∂x1 ∂x2 ∂x3

x21 + x22 + x23 .

Es gilt somit: ∂f ∂ = ∂x1 ∂x1

 q  2 2 2 ln x1 + x2 + x3

1 2x1 x1 = p 2 · p 2 = 2 2 2 2 2 x + x22 + x23 x1 + x2 + x3 2 x1 + x2 + x3 1 oder allgemein: ∂f xi = 2 , ∂xi x1 + x22 + x23 und so erhalten wir: df =

i = 1, 2, 3,

x1 dx1 + x2 dx2 + x3 dx3 . x21 + x22 + x23

1.1 Gradient, Divergenz, Rotation Zu (b) f (x1 , x2 , x3 , t) = √

3

1 . x21 +x22 +x23 +t2

Es gilt daher: ∂f −1 = p 2 · 2x1 ∂x1 2 (x1 + x22 + x23 + t2 )3 −x1 = p 2 (x1 + x22 + x23 + t2 )3 oder allgemein: ∂f −xi =p 2 , ∂xi (x1 + x22 + x23 + t2 )3

i = 1, 2, 3

(analog för t), und so erhalten wir:

df =

−x1 dx1 − x2 dx2 − x3 dx3 − tdt p . (x21 + x22 + x23 + t2 )3

Aufgabe 1.3 Berechnen Sie df /dt für f (x, y) = xy , wobei x=x(t), y=y(t) Funktionen von t sind. Lösung:

Ableitung einer zusammengesetzten Funktion Für eine Funktion f = f (x, y), wo x = x(t), y = y(t) ist, gilt: df ∂f dx ∂f dy = · + · dt ∂x dt ∂y dt

Wegen f (x, y) = xy := ey ln x erhalten wir

∂f 1 = y · ey ln x · = yxy x−1 = y · xy−1 , ∂x x ∂f = ln x · ey ln x = ln x · xy ∂y

4

1 Vektoranalysis

und damit das Ergebnis: df dx dy = y · xy−1 + ln x · xy · . dt dt dt Aufgabe 1.4 Sei f (x1 , x2 , x3 ) = 1/r, wobei ~r der Radiusvektor vom Nullpunkt zum Punkt (x1 , x2 , x3 ) und r := |~r| der euklidische Abstand des Punktes (x1 , x2 , x3 ) vom Nullpunkt ist. (a) Berechnen Sie grad f. (b) Leiten Sie die folgende Formel her: grad (rn ) = n · rn−2 · ~r. Lösung: Unter dem Gradienten einer skalarwertigen Funktion f (x1 , x2 , x3 ) verstehen wir den Vektor: Gradient   ∂f ∂f ∂f grad f := , , ∂x1 ∂x2 ∂x3

Zu (a) Es gilt für den Radiusvektor ~r := (x1 , x2 , x3 ) q r = |~r| = x21 + x22 + x23 , also f (x1 , x2 , x3 ) = p

1 x21

+ x22 + x23

.

Mit Aufgabe 1.2 erhält man damit: ∂f −2xi −xi −xi = = = 3 . ∂xi |~r|3 r 2(x21 + x22 + x23 )3/2 Daraus folgt das Ergebnis: grad f =

−~r . r3

Zu (b) Nach Definition erhält man:   ∂ ∂ ∂ grad (rn ) = (rn ), (rn ), (rn ) . ∂x1 ∂x2 ∂x3

1.1 Gradient, Divergenz, Rotation

5

Die einzelnen Koeffizienten berechnen sich dann zu:  ∂ n ∂  2 (r ) = (x1 + x22 + x23 )n/2 ∂xi ∂xi n n = (x21 + x22 + x23 ) 2 −1 · 2xi 2 n = n · (x21 + x22 + x23 ) 2 −1 · xi = n · (x21 + x22 + x23 ) = n · rn−2 · xi ,

n−2 2

· xi

das bedeutet: grad (rn ) = n · rn−2 · ~r ~r = n · rn−1 · . r (vgl. (a) für n = −1) Aufgabe 1.5 Eine Fliege sitzt auf einer Lampe, die (idealisiert) im Raumpunkt mit den Koordinaten (2,1,4) lokalisiert sei. Die Raumtemperatur sei gegeben durch f (x, y, z) = x3 + y 2 + z. In welche Richtung sollte die Fliege fliegen, um möglichst schnell zu kühleren Gefilden zu gelangen? Lösung: Die Fliege sollte in Richtung des negativen Gradienten wegfliegen. Wir berechnen: −grad f (2, 1, 4) = −grad (x3 + y 2 + z)|(2,1,4) = (−3x2 , −2y, −1)|(2,1,4) = (−12, −2, −1). Aufgabe 1.6 Gegeben sei das Skalarfeld f (x, y, z) = 3x2 y − y 3 z 2 . Berechnen Sie grad f (1, −2, −1). Lösung: Es gilt: und damit

grad f = (6xy, 3x2 − 3y 2 z 2 , −2y 3 z) grad f (1, −2, −1) = (−12, −9, −16).

6

1 Vektoranalysis

Aufgabe 1.7 Für die Funktion f : IR3 \ {0} → IR, gegeben durch f (x, y, z) := 1/r, r Abstand des Punktes P = (x, y, z) vom Nullpunkt, berechne man div grad f . Lösung: Es gilt p

r=

x2 + y 2 + z 2 .

Damit erhalten wir:   1 div grad = div r 2x

= div −

grad

1 p

!!

x2 + y 2 + z 2

2y

2z

!

p p p 3,− 3,− 3 . 2 · x2 + y 2 + z 2 2 · x2 + y 2 + z 2 2 · x2 + y 2 + z 2 Unter der Divergenz einer vektorwertigen Funktion ~v (x1 , x2 , x3 ) = (v1 (x1 , x2 , x3 ), v2 (x1 , x2 , x3 ), v3 (x1 , x2 , x3 )) verstehen wir die skalare Größe: Divergenz div ~v :=

∂v1 ∂v2 ∂v3 + + ∂x1 ∂x2 ∂x3

Wenden wir das auf obige Gleichung an, so ergibt sich: ! ∂ x −p = 3x2 (x2 + y 2 + z 2 )−5/2 − (x2 + y 2 + z 2 )−3/2 3 ∂x x2 + y 2 + z 2 2x2 − y 2 − z 2 = p 5, x2 + y 2 + z 2 ∂ ∂y ∂ ∂z

y

!

2y 2 − z 2 − x2 = p 5, x2 + y 2 + z 2

z

!

2z 2 − x2 − y 2 = p 5. x2 + y 2 + z 2

−p 3 x2 + y 2 + z 2 −p 3 x2 + y 2 + z 2

Einfaches Zusammenfassen liefert:   1 div grad = 0. r

1.1 Gradient, Divergenz, Rotation

7

Aufgabe 1.8 Bestimmen Sie eine Gleichung für die Tangentialebene der Fläche F , gegeben durch 2x1 x23 − 3x1 x2 − 4x1 = 7, im Punkt (1, −1, 2). Lösung: Man fasse die Flächengleichung auf als Gleichung der Niveau-Fläche zum Niveau 7 der Funktion f (x1 , x2 , x3 ) = 2x1 x23 − 3x1 x2 − 4x1 . Dann ist der Normalenvektor der Niveaufläche gerade der Gradient; denn der Gradient steht bekanntlich senkrecht auf den Niveauflächen. Wir berechnen also grad f = (2x23 − 3x2 − 4, −3x1 , 4x1 x3 ) und erhalten: grad f (1, −1, 2) = (7, −3, 8). Mit der Hesse-Normalform gewinnen wir die Gleichung der Tangentialebene: Kennt man den Normalenvektor der Ebene und einen Vektor ~x0 , der zur Ebene hinführt, so genügt jeder Vektor ~x, der zur Ebene hinführt, der Gleichung (~x − ~x0 )~n = 0. Wir wählen ~x0 = (1, −1, 2), ~n = grad f. Dann lautet die Flächengleichung: ((x1 , x2 , x3 ) − (1, −1, 2))(7, −3, 8) = 7(x1 − 1) − 3(x2 + 1) + 8(x3 − 2) = 0, das heißt, die gesuchte Tangentialebene hat die Gleichung 7x1 − 3x2 + 8x3 = 26. Aufgabe 1.9 Sei P ein Punkt einer Ellipse mit Brennpunkten A und B. Zeigen Sie, dass die Geraden AP und BP denselben Winkel mit der Tangente an die Ellipse im Punkt P einschließen. Lösung: Sei ~x1 := AP , ~x2 := BP und ~t der Tangenteneinheitsvektor an die Ellipse im Punkt P. Die Ellipsengleichung lautet dann (vgl. ‚Gärtner-Konstruktion‘): |~x1 | + |~x2 | = p = const. Fassen wir diese Gleichung auf als Niveauflächengleichung zum Niveau p der Funktion f (~x) = |~x − ~a| + |~x − ~b|

mit

~a = OA, ~b = OB, ~x = OP ,

8

1 Vektoranalysis

dann ist grad f ⊥ Ellipse. Daraus folgt: (grad (|~x − ~a| + |~x − ~b|) · ~t = 0. Damit erhält man die Gleichheit grad (|~x − ~a|) · ~t = −grad (|~x − ~b|) · ~t = grad (|~x − ~b|) · (−~t). Nun ist, wie wir in Aufgabe 1.7 gezeigt haben, grad (|~x−~a|) ein Einheitsvektor in Richtung (~x − ~a), also ~x − ~a grad (|~x − ~a|) = . |~x − ~a| Wegen ~u · ~v = |~u| · |~v | · cos(∠ (~u, ~v )) und |grad |~x − ~a|| = |grad |~x − ~b|| = |~t| = | − ~t| = 1 folgt: cos ∠ (grad |~x − ~a|, ~t) = cos ∠ (grad |~x − ~b|, −~t). Da der Winkel zwischen 0◦ und 90◦ liegt, erhalten wir ∠ (grad |~x − ~a|, ~t) = ∠ (grad |~x − ~b|, −~t). So ergibt sich die behauptete Winkelgleichheit  ∠

 ~x − ~a ~ ,t = ∠ |~x − ~a|

! ~x − ~b ~ , −t . |~x − ~b|

Aufgabe 1.10 Gegeben sei das Vektorfeld ~v (x, y, z) = (v1 , v2 , v3 )(x, y, z) := (x2 y, −2xz, 2yz). Berechnen Sie rot rot ~v . Lösung: rot ~v berechnet sich nach folgender Formel: Rotation  ~e1 ~e2  ∂ ∂ rot ~v = det   ∂x ∂y v1 v2

 ~e3 ∂    ∂z v3

1.1 Gradient, Divergenz, Rotation

9

Hier rechnen wir: 

~e1 ~e2  ∂ ∂ rot ~v = det   ∂x ∂y x2 y −2xz

 ~e3 ∂   = ((2x + 2z), 0, −(x2 + 2z.)).  ∂z 2yz

Analog folgt dann: 

~e1  ∂ rot rot ~v = det   ∂x 2x + 2z

 ~e2 ~e3  ∂ ∂  = (0, 2x + 2, 0).  ∂y ∂z 2 0 −(x + 2z)

Aufgabe 1.11 Es sei im IR3 das folgende Vektorfeld gegeben: ~v (~r) = ω ~ × ~r,

ω ~ konst. Vektor.

Zeigen Sie dann 1 rot ~v (~r), 2 und deuten Sie das Ergebnis physikalisch, indem Sie ~v als Geschwindigkeitsfeld interpretieren. ω ~ =

Lösung: Eine einfache Rechnung zeigt: rot ~v (~r) = rot (~ ω × ~r) = ∇ × (~ ω × ~r) ~e1 ~e2 ~e3 = ∇ × ω1 ω2 ω3 x y z = ∇ × [ω2 z − ω3 y, ω3 x − ω1 z, ω1 y − ω2 x] ~e1 ~e2 ~e3 ∂ ∂ ∂ = ∂x ∂y ∂z ω2 z − ω3 y ω3 x − ω1 z ω1 y − ω2 x = ω1 − (−ω1 ), ω2 − (−ω2 ), ω3 − (−ω3 ) = 2 · ω ~. Diese Gleichung erklärt den Namen Rotation: Betrachten wir nur mal den Einheitskreis in der x–y–Ebene und wählen ω ~ als einen Vektor in Richtung der z–Achse. Deuten wir dann das Vektorfeld in diesem Kreis als Geschwindigkeitsfeld, so steht der jeweilige Geschwindigkeitsvektor entsprechend der Definition des Kreuzproduktes senkrecht auf der z–Achse, bleibt also in der x–y–Ebene, und senkrecht auf dem Radiusvektor. Dies beschreibt aber gerade ein um den Nullpunkt rotierendes Feld. Der Vektor rot ~v ist dann nach obiger Rechnung (bis auf den Faktor 2) der das Geschwindigkeitsfeld beschreibende Drehvektor, seine Länge ist die doppelte Winkelgeschwindigkeit.

10

1 Vektoranalysis

Aufgabe 1.12 Betrachten wir einen festen Körper, der um eine Achse, die durch den Nullpunkt geht, rotiert. z 6 Bezeichnen wir mit ~v den Geschwindigkeitsvektor eines Punktes P des Körpers, so berechne man unter der Annahme, dass die Winkelgeschwindigkeit ω ~ konstant ist, div ~v

und

ω ~

 P   ~r *   y       x

rot ~v .

Abbildung 1.1: Rotierender Körper Lösung: Sei P = (x, y, z), dann lautet das Geschwindigkeitsfeld: ~v = ω ~ × ~r. Wir zeigen zunächst als Zwischenrechnung die folgende Formel: div (~a × ~b) = ~b · rot ~a − ~a · rot ~b, div (~a × ~b) = div (a2 b3 − b2 a3 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ) ∂a2 ∂b3 ∂a3 ∂b2 = b3 + a2 − b2 − a3 ∂x ∂x ∂x ∂x ∂a3 ∂b1 ∂a1 ∂b3 +b1 + a3 − b3 − a1 ∂y ∂y ∂y ∂y ∂a1 ∂b2 ∂a2 ∂b1 +b2 + a1 − b1 − a2 ∂z ∂z ∂z   ∂z  ∂a3 ∂a2 ∂a1 ∂a3 = b1 − + b2 − ∂y ∂z ∂z ∂x     ∂a2 ∂a1 ∂b3 ∂b2 +b3 − − a1 − ∂x ∂y ∂y ∂z     ∂b1 ∂b3 ∂b2 ∂b1 −a2 − − a3 − ∂z ∂x ∂x ∂y    ∂ ∂ ∂ = (b1 , b2 , b3 ) · , , × (a1 , a2 , a3 ) ∂x ∂y ∂z    ∂ ∂ ∂ −(a1 , a2 , a3 ) · , , × (b1 , b2 , b3 ) ∂x ∂y ∂z ~ ~ = b · rot ~a − ~a · rot b.

1.2 Kurvenintegrale

11

Mit dieser Formel folgt nun: div ~v = div (~ ω × ~r) = ~r · rot ω ~ −ω ~ · rot ~r. Da nach Voraussetzung ω ~ ein konstanter Vektor ist, ist rot ω ~ = 0. Leicht rechnet man nach, dass rot ~r = 0 gilt, denn       ∂ ∂ ∂ ∂ ∂ ∂ rot ~r = z− y , x− z , y− x = 0. ∂y ∂z ∂z ∂x ∂x ∂y Also folgt insgesamt: div ~v = div (~ ω × ~r) = 0. Aus Aufgabe 1.11 folgern wir noch rot ~v = 2~ ω.

1.2

Kurvenintegrale

Aufgabe 1.13 Gegeben sei das folgende Vektorfeld ~v (~x) := (x · y, x2 , x − z). Berechnen Sie das Kurvenintegral Z ~v (~x) d~x k

vom Nullpunkt zum Punkt (1, 2, 4), wobei (a) k die gerade Verbindung beider Punkte ist, (b) k die Kurve gegeben durch die folgende Parametrisierung ist: x = t2 , y = 2t3 , z = 4t. (c) Vergleichen Sie das Ergebnis von (a) und (b), und begründen Sie es. Lösung: Machen wir uns an einer kleinen Skizze (vgl. Abbildung 1.2 nächste Seite) zunächst die Wege klar. Zu (a) Hier besteht die kleine Kniffelaufgabe darin, eine Parametrisierung der Verbindungsstrecke zu finden. Versuchen wir doch einfach den Ansatz x = t. Wenn wir jetzt t

12

1 Vektoranalysis z 6 d (1,2,4)

 1    1

* y    x

Abbildung 1.2: Integrationswege

von 0 bis 1 durchlaufen lassen, so gelangen wir zur verlangten x–Komponente 1. In derselben Zeit müssen wir bezüglich der y–Koordinate bei y = 2 gelandet sein. Also wählen wir y = 2t, was sonst? Im selben Sinne ist dann für die z–Koordinate zu setzen z = 4t, und schon ist alles geschafft. Wir erhalten also die Parametrisierung: x = t, y = 2t, z = 4t,

0 ≤ t ≤ 1.

Daraus ergibt sich dann durch harmloses Differenzieren: dx = dt, dy = 2 dt, dz = 4 dt. Unser Kurvenintegral berechnet sich somit leicht: Z

Z ~v (~x) d~x =

k

Zk =

(xy, x2 , x − z)(dx, dy, dz) xy dx + x2 dy + (x − z) dz

k

Z

1

[t · 2t dt + t2 · 2 dt + (t − 4t) · 4 dt]

= 0

Z = 0

1



4 3 (4t − 12t) dt = t − 6t2 3 2

1 =− 0

14 . 3

Zu (b) Hier ist uns die Parametrisierung vorgegeben, also müssen wir nur kurz einsetzen und ein wenig integrieren (Man sieht ja sofort, dass sich für t = 0 der Nullpunkt und für t = 1 der Endpunkt (1,2,4) ergibt, die Parametrisierung also sinnvoll ist): dx = 2t dt, dy = 6t2 dt, dz = 4 dt,

1.2 Kurvenintegrale

13

Kurvenhauptsatz Sei G ein Gebiet und ~v ein stetiges Vektorfeld in G. Dann sind die folgenden Aussagen äquivalent: (i) ~v besitzt ein Potential, d. h. es gibt eine Skalarfunktion f mit

~v = grad f . (ii) Das Kurvenintegral von ~v in G ist unabhängig vom Weg. (iii) Das Kurvenintegral von ~v in G über jeden in G verlaufenden geschlossenen Weg verschwindet. Ist G darüber hinaus ein einfach zusammenhängendes Gebiet und ~v ein C 1 –Vektorfeld, so ist auch noch äquivalent: (iv)

rot ~v = 0.

Z

Z ~v (~x) d~x =

k

xy dx + x2 dy + (x − z) dz

k

Z

1

[t2 · 2t3 · 2t dt + t4 · 6t2 dt + (t2 − 4t) · 4 dt]

= 0

Z

1



10 7 4 3 16 2 = (10t + 4t − 16t) dt = t + t − t 7 3 2 0 10 4 110 = + −8=− . 7 3 21 6

2

1 0

Zu (c) Die Ergebnisse bei (a) und (b) sind voneinander verschieden. Also ist das Kurvenintegral nicht wegunabhängig. Der Kurvenhauptsatz auf Seite 13 liefert eine Möglichkeit, dieses vorweg aus Eigenschaften des Vektorfeldes zu erkennen.

Schauen wir uns die Bedingung (iv) an. Zwar ist das Vektorfeld in der ganzen Ebene, die ja ein einfach zusammenhängendes Gebiet ist, ein C ∞ –Feld, aber zum Beispiel gilt: ∂v1 ∂v2 = x 6= 2x = ∂y ∂x

für x 6= 0,

∂v1 ∂v3 = 0 6= 1 = . ∂z ∂x Also ist rot ~v 6= 0. Das wäre aber notwendig und hinreichend für die Wegunabhängigkeit.

14

1 Vektoranalysis

Aufgabe 1.14 Berechnen Sie das Integral Z  k

 −y x dx + dy , x2 + y 2 x2 + y 2

wobei k eine Kurve im Kreis K : (x − 2)2 + y 2 ≤ 1 ist, die den Punkt (1, 0) mit einem beliebigen Punkt (x, y) in K verbindet. Lösung: Zunächst zeigen wir, dass das Integral wegunabhängig ist. Dazu überlegen wir uns nach dem Kurvenhauptsatz, dass die Rotation des Vektorfeldes verschwindet. Dieses Feld ist nun zweidimensional, und wir folgen einer alten Tradition, wenn wir folgende Bezeichnung einführen: ~v (x, y) = (P (x, y), Q(x, y))

mit P (x, y) =

−y , x2 + y 2

Q(x, y) =

x . x2 + y 2

Für ein solches Feld lautet dann die Rotation: ∂P ∂Q ∂P ∂Q − = 0 ⇐⇒ = . ∂y ∂x ∂y ∂x Es gilt hier: ∂P y 2 − x2 ∂Q = 2 = . ∂y (x + y 2 )2 ∂x Nun ist also der Integrationsweg beliebig wählbar, solange man nur im vorgegebenen Kreis bleibt. Wir wählen einen Weg parallel zu den Koordinatenachsen, und zwar zunächst entlang der x-Achse bis zum Punkt (x, 0), und anschließend parallel zur y-Achse bis zum Punkt (x, y). (Ein Weg erst entlang der y-Achse würde aus dem Kreis herausführen.) So folgt: Z

x

Z P (x, 0)dx +

1

y

x

−0 dx + 2 1 x +0 y = arctan . x Z

Z

Q(x, y)dy = 0

0

y

x dy x + y2 2

Bemerkung: Der Kreis K enthält nicht den Nullpunkt, weil dort der Integrand nicht erklärt wäre, sondern durch 0 geteilt werden müsste. Wählt man als Weg k den Rand des Einheitskreises um 0, so müsste man bei dem Gebiet, in dem die Wegunabhängigkeit des Integrals untersucht werden soll, mindestens den Nullpunkt herausnehmen. Dieses Gebiet ist aber nicht mehr einfach zusammenhängend, so dass die Integrabilitätsbedingung zur Untersuchung der Wegunabhängigkeit nicht anwendbar ist.

1.2 Kurvenintegrale

15

Darüber hinaus zeigt sich, dass für den Rand des Einheitskreises obiges Integral nicht verschwindet. Man berechnet nämlich mit der Parametrisierung: x = cos t, y = sin t, 0 ≤ t ≤ 2π Z

P dx + Qdy = k

also dx = − sin t dt, dy = cos t dt

Z 2π − sin t

1

0

Z 2π

=

(− sin t) dt +

Z 2π cos t 0

1

cos t dt

(sin2 t + cos2 t) dt = 2π 6= 0.

0

Aufgabe 1.15 Gegeben sei das Vektorfeld   −y x ~v (x, y, z) = , , z x2 + y 2 x2 + y 2 und der Torus D, den man dadurch erhält, dass der Kreis (x − 2)2 + z 2 ≤ 1, y = 0 um die z-Achse rotiert. Zeigen Sie, dass in D gilt: rot ~v = 0, aber

I ~v d~x 6= 0, k

wobei k der Kreis x2 + y 2 = 4, z = 0 ist. Lösung: Berechnen wir zunächst rot ~v : ~e1  ∂ rot ~v = det   ∂x

 ~e3 ∂   ∂z  −y x z x2 +y 2 x2 +y 2      ∂ x ∂ −y = 0, 0, − ∂x x2 + y 2 ∂y x2 + y 2   x2 + y 2 − 2x2 + x2 + y 2 − 2y 2 = 0, 0, (x2 + y 2 )2 = (0, 0, 0). 

~e2 ∂ ∂y

Zur Berechnung des Kurvenintegrals führen wir Polarkoordinaten ein: x = 2 cos ϕ, y = 2 sin ϕ,

0 ≤ ϕ ≤ 2π.

16

1 Vektoranalysis

Damit folgt: dx = −2 sin ϕ dϕ, dy = 2 cos ϕ dϕ, also d~x = (−2 sin ϕ dϕ, 2 cos ϕ dϕ). Weil der Kreis k in der (x, y)–Ebene liegt, reduziert sich ~v zu:  ~v =

   −y x 1 1 , , 0 = − sin ϕ, cos ϕ, 0 . x2 + y 2 x2 + y 2 2 2

Dann folgt für das Integral: I



Z ~v · d~x =

k

0

  1 1 − sin ϕ, cos ϕ · (−2 sin ϕ, 2 cos ϕ) dϕ 2 2



Z

(sin2 ϕ + cos2 ϕ) dϕ

= 0 2π

Z



= 0

= 2π.

Die Aufgabe stellt kein Gegenbeispiel dar zu der Tatsache, dass Kurvenintegrale genau dann wegunabhängig sind, Kurvenintegrale über geschlossenen Wegen also verschwinden, wenn das Vektorfeld rotationsfrei ist. Dieser Satz gilt nämlich nur in einfach zusammenhängenden Gebieten. Das Vektorfeld ~v ist aber auf der gesamten z-Achse nicht definiert. Wir müssen also ein Gebiet wählen, das keinen Punkt der z-Achse enthält. Der Torus erfüllt dies, bildet aber kein einfach zusammenhängendes Gebiet. So ist also der oben zitierte Satz nicht anwendbar, und die Aufgabe gibt ein schönes Beispiel dafür, dass auf die Voraussetzung des einfachen Zusammenhangs nicht verzichtet werden kann. Aufgabe 1.16 Berechnen Sie Z

[(10x4 − 2xy 3 )dx − 3x2 y 2 dy]

k

entlang des Weges k : x4 − 6xy 3 = 4y 2 zwischen den Punkten A = (0, 0) und B = (2, 1). Lösung: Wir versuchen, den Integranden als vollständiges Differential

dϕ =

∂ϕ ∂ϕ dx + dy ∂x ∂y

1.3 Potential, Vektorpotential

17

einer Funktion ϕ(x, y) darzustellen. Durch Vergleich ergeben sich die Beziehungen: ∂ϕ 10 5 2 2 3 = 10x4 − 2xy 3 ⇒ ϕ(x, y) = x − x y + f (y) ∂x 5 2 ∂ϕ 3 = −3x2 y 2 ⇒ ϕ(x, y) = − x2 y 3 + g(x). ∂y 3 Hierbei sind f und g jeweils Integrationskonstanten, die natürlich Funktionen von der nichtintegrierten Variablen sind. Diese Integrationskonstanten wählen wir jetzt so, dass beide Male die gleiche Funktion ϕ entsteht: Wähle

f (y) = 0,

g(x) = 2x5 .

Damit erhalten wir: ϕ(x, y) = 2x5 − x2 y 3 . Jetzt können wir ein beliebiges Gebiet wählen, das die beiden Punkte A und B enthält. Die Funktionen im Integral bilden auf jeden Fall ein einmal stetig differenzierbares Vektorfeld, so dass das Kurvenintegral wegunabhängig ist. Als Ergebnis folgt: Z Z [(10x4 − 2xy 3 )dx − 3x2 y 2 dy] = dϕ k k Z 5 2 3 = d(2x − x y ) = ϕ(2, 1) − ϕ(0, 0) k (2,1) = (2x5 − x2 y 3 ) (0,0 = 60.

1.3

Potential, Vektorpotential

Aufgabe 1.17 Gegeben sei das Vektorfeld ~v = (x + 2y + az, bx − 3y − z, 4x + cy + 2z) mit Konstanten a, b, c ∈ IR. (a) Bestimmen Sie diese Konstanten so, dass ~v rotationsfrei ist. (b) Zeigen Sie, dass ~v mit diesen Konstanten ausgedrückt werden kann als der Gradient einer Skalarfunktion ϕ(x, y, z) . Lösung: Der mathematische Hintergrund für diese Aufgabe wurde uns im Kurvenhauptsatz Seite 13 geliefert. Zu (a) Es ist ~e1 ~e2 ~e3 ∂/∂x ∂/∂y ∂/∂z rot ~v = x + 2y + az bx − 3y − z 4x + cy + 2z = (c + 1, a − 4, b − 2).

18

1 Vektoranalysis

Wähle a = 4, b = 2, c = −1, dann folgt: ~v = (x + 2y + 4z, 2x − 3y − z, 4x − y + 2z). Zu (b) Wir machen den Ansatz:  ~v = grad ϕ = Aus

∂ϕ ∂x

∂ϕ ∂ϕ ∂ϕ , , ∂x ∂y ∂z

 .

= x + 2y + 4z folgt durch Integration: ϕ(x, y, z) =

x2 + 2xy + 4xz + f (y, z), 2

wobei die Funktion f die Stelle der Integrationskonstanten annimmt. Analog ergibt sich: ϕ(x, y, z) = 2xy −

3y 2 − yz + g(x, z) 2

ϕ(x, y, z) = 4xz − yz + z 2 + h(x, y). Ebenso sind hier g und h die Integrationskonstanten. Wählt man nun geschickterweise: f (y, z) = −

3y 2 x2 + z 2 − yz, g(x, z) = + z 2 + 4xz 2 2 h(x, y) =

x2 3y 2 − + 2xy, 2 2

so folgt: x2 3y 2 − + z 2 + 2xy + 4xz − yz. 2 2 Wiederum könnten wir eine weitere Konstante hinzufügen, aber wir sind ja nur an irgendeiner Lösung, nicht an der Gesamtheit aller interessiert. ϕ(x, y, z) =

Aufgabe 1.18 Zeigen oder widerlegen Sie, dass folgendes Vektorfeld ~v (x, y, z) = (ex + y 2 , 2xy + z 3 , 3yz 2 + 2z) ein Potential besitzt, indem Sie (a) die Rotation von ~v berechnen, (b) eine Potentialfunktion ausrechnen bzw. nachweisen, dass es keine Potentialfunktion für ~v gibt.

1.3 Potential, Vektorpotential

19

Lösung: Zu (a) Wir berechnen die Rotation mittels der in Aufgabe 1.10 eingeführten Determinante:   ~e1 ~e2 ~e3 ∂/∂y ∂/∂z  det  ∂/∂x x 2 3 e + y 2xy + z 3yz 2 + 2z  ∂ ∂ ∂ x ∂ = (3yz 2 + 2z) − (2xy + z 3 ), (e + y 2 ) − (3yz 2 + 2z), ∂y ∂z ∂z ∂x  ∂ x ∂ 3 2 (2xy + z ) − (e + y ) ∂x ∂y = (3z 2 − 3z 2 , 0 − 0, 2y − 2y) = (0, 0, 0). Also ist ~v rotationsfrei und besitzt deshalb ein Potential. Zu (b) Nun muß ein Potential ϕ, also eine Skalarfunktion ϕ(x, y, z) so bestimmt werden, daß gilt: grad ϕ(x, y, z) = ~v (x, y, z). Dazu stehen uns verschiedene Wege zur Verfügung. Zunächst zeigen wir, wie man durch trickreiches Einsetzen das Potential direkt berechnen kann: 1. Lösung: Schauen wir uns die geforderte Gleichung für ϕ genauer an:   ∂ϕ ∂ϕ ∂ϕ grad ϕ = , , = (ex + y 2 , 2xy + z 3 , 3yz 2 + 2z) = ~v . ∂x ∂y ∂z Durch Koeffizientenvergleich erhält man daraus zunächst drei Gleichungen: (i) (ii) (iii)

∂ϕ = ex + y 2 , ∂x ∂ϕ = 2xy + z 3 , ∂y ∂ϕ = 3yz 2 + 2z. ∂z

Integrieren wir (i) nach x, so erhält man: ϕ(x, y, z) = ex + y 2 x + f (y, z).

(?)

Hierbei nimmt die Funktion f (y, z) die Stelle der Integrationskonstanten ein. Diese Gleichung differenzieren wir nun partiell nach y, um sie mit (ii) zu vergleichen: ∂ϕ ∂f = 2xy + = 2xy + z 3 . ∂y ∂y

20

1 Vektoranalysis

Diese Gleichung führt zu: ∂f = z3. ∂y Das integrieren wir schnell und erhalten: f (y, z) = z 3 y + g(z) mit einer weiteren Integrationskonstanten g(z), die wir noch zu bestimmen haben. Wir differenzieren dazu obige Gleichung (?) nach z, setzen die gerade erhaltene Gleichung für f ein und vergleichen mit (iii) von oben: ∂ϕ ∂f ∂g = = 3z 2 y + = 3yz 2 + 2z. ∂z ∂z ∂z Der Vergleich führt zu der Gleichung: ∂g = 2z. ∂z Hieraus lässt sich g mit einer wirklichen reellen Konstanten bestimmen zu: g(z) = z 2 + C. Das setzen wir nun wieder in unsere Gleichung für f ein: f (y, z) = z 3 y + z 2 + C. Damit erhalten wir aus (?) unser Ergebnis: ϕ(x, y, z) = ex + y 2 x + yz 3 + z 2 + C. Vielleicht sollte der geneigte Leser schnell mal die Probe machen und den Gradienten dieser Funktion ausrechnen. 2. Lösung: Bei dieser Methode muss man ein bisschen dem Glück vertrauen, eine Lösung durch längeres Hinschauen zu erraten. Das erfordert dann in der Tat am Ende eine Rechtfertigung über eine Proberechnung. Wir gehen wieder von den drei Gleichungen (i), (ii) und (iii), die wir in der ersten Lösungsvariante erhalten haben, aus und integrieren alle drei Gleichungen jeweils nach der Variablen, nach der sie abgeleitet werden. Das führt uns zu drei Gleichungen mit jeweils unterschiedlichen Integrationskonstanten: ϕ(x, y, z) = ex + xy 2 + f (y, z), ϕ(x, y, z) = xy 2 + z 3 y + g(x, z), ϕ(x, y, z) = yz 3 + z 2 + h(x, y).

1.3 Potential, Vektorpotential

21

Hier muss man nun kurze Zeit verweilen und die folgenden Gleichungen durch Vergleich der drei Zeilen erraten, was bei dieser einfachen Aufgabe problemlos ist, aber allgemein schwierig sein kann: (a) f (y, z) = yz 3 + z 2 , (b) g(x, z) = ex + z 2 , (c) h(x, y) = ex + xy 2 . Damit erhält man aus jeder der drei obigen Gleichungen die gesuchte Funktion ϕ(x, y, z): ϕ(x, y, z) = ex + y 2 x + yz 3 + z 2 . Wegen des Ratespielchens ist hier eine Proberechnung erforderlich, was aber wegen der einfachen Aufgabenstellung leicht zu bewerkstelligen ist. Dabei erkennt der gewiefte Analytiker, dass die Funktion ϕ noch um eine beliebige additive Konstante C ergänzt werden kann, da diese ja beim Ableiten verschwindet. Gesucht war allerdings nach Aufgabenstellung nur irgendeine Potentialfunktion, nicht die Gesamtheit aller. Wir bieten noch eine dritte Lösungsvariante an: 3. Lösung: Wir nutzen bei dieser Variante die urspüngliche Definition einer Potentialfunktion als Kurvenintegral aus:

Integraldarstellung des Potentials 0

Gegeben sei ein C –Vektorfeld ~v in einem Gebiet G. Besitzt ~v ein Potential ϕ (vgl. Kurvenhauptsatz), so lässt sich ϕ in einem beliebigen Punkt (x1 , y1 , z1 ) darstellen in der Form ((x0 , y0 , z0 ) fester Punkt in G): Z

(x1 ,y1 ,z1 )

ϕ(x1 , y1 , z1 ) =

~v (x, y, z) d~x (x0 ,y0 ,z0 )

. Hier müssen wir ein wenig mit den Bezeichnungen aufpassen, damit wir nicht Integrationsvariable und feste Punkte durcheinanderbringen. Wir wollen eine Potentialfunktion im Punkt (x1 , y1 , z1 ) bestimmen und x, y, z als Integrationsvariable stehen lassen. Zunächst wählen wir (x0 , y0 , z0 ) = (0, 0, 0) und legen willkürlich fest, dass das Potential im Nullpunkt den Wert Null annehmen möchte; denn wir suchen ja nur irgendein Potential. Da wir darüber hinaus schon aus Teil (a) der Aufgabe wissen, dass es eine solche Funktion gibt, nutzen wir nach dem Kurvenhauptsatz aus, dass obiges Kurvenintegral wegunabhängig ist, indem wir einen geschickten Weg wählen, der uns das Integrieren leichter macht. Wir marschieren zunächst vom Nullpunkt entlang der x–Achse bis zum

22

1 Vektoranalysis

Punkt (x1 , 0, 0), anschließend parallel zur y–Achse bis zum Punkt (x1 , y1 , 0) und schließlich parallel zur z–Achse bis zum gewünschten Endpunkt (x1 , y1 , z1 ). Dabei nutzen wir unterwegs stets aus, dass manche Koordinaten ja Null sind und auf jedem Teilweg nur immer ein Differential von Null verschieden ist:

Z

(x1 ,y1 ,z1 )

~v (x, y, z) · d~x

ϕ(x1 , y1 , z1 ) = (x0 ,y0 ,z0 )

Z

(x1 ,y1 ,z1 )

[v1 (x, y, z) dx + v2 (x, y, z) dy + v3 (x, y, z) dz]

= (x0 ,y0 ,z0 ) Z x1

Z y1 Z z1 v1 (x, 0, 0) dx + v2 (x1 , y, 0) dy + v3 (x1 , y1 , z) dz 0 0 0 Z x1 Z y1 Z z1 = ex dx + 2x1 y dy + (3y1 z 2 + 2z) dz =

0

0

0

= ex1 − 1 + x1 y12 + y1 z13 + z12 . Aufgabe 1.19 Zeigen Sie, dass die Jacobi-Matrix eines C 1 -Vektorfeldes ~v : IRn −→ IRn symmetrisch ist, falls ~v ein Potential besitzt. Lösung: Sei ~v = (v1 , v2 , . . . , vn ) das Vektorfeld mit vi = vi (x1 , . . . , xn ), für i = 1, . . . , n). Wenn nun ~v ein Potential besitzt, so gibt es ein Skalarfeld ϕ = ϕ(x1 , . . . , xn mit   ∂ϕ ∂ϕ ~v = grad ϕ = ,..., , ∂x1 ∂xn das heißt, es gilt: vi =

∂ϕ ∂xi

für

i = 1, . . . , n.

Differenziert man beide Seiten, so folgt: ∂vi ∂2ϕ ∂2ϕ ∂vk = = = , ∂xk ∂xk ∂xi ∂xi ∂xk ∂xi wobei das mittlere Gleichheitszeichen eine Folge des bekannten Satzes von H. A. Schwarz über die Vertauschbarkeit der Differentiationsreihenfolge ist. Dies ist aber bereits die Symmetrie der Jacobi-Matrix von ~v .

Bemerkung: Die Umkehrung gilt nicht, wie wir in Aufgabe 1.20 sehen werden.

1.3 Potential, Vektorpotential

23

Aufgabe 1.20 Welche der folgenden Vektorfelder besitzen ein Potential? (a) ~v (x, y) = (x − 2y, x + 2y), (b) ~v (x, y, z) = (x, z, x), x (c) ~v (x, y) = ( x2−y +y 2 , x2 +y 2 ).

Lösung: Wir benutzen Aufgabe 1.19 in der Umkehrform: Ist die Jacobi-Matrix des C 1 –Vektorfeldes ~v nicht symmetrisch, so besitzt ~v auch kein Potential! Zu (a) Die Jacobi-Matrix V 0 lautet: ∂v1 ∂x ∂v2 ∂x

0

V =

∂v1 ∂y ∂v2 ∂y

!

 =

1 −2 1 2

 .

Diese Matrix ist nicht symmetrisch, also existiert auch kein Potential. Zu (b) Die Jacobi-Matrix lautet hier: 

 1 0 0 V 0 =  0 0 1 . 1 0 0 Auch diese Matrix ist offensichtlich nicht symmetrisch, also existiert ebenfalls kein Potential. Zu (c) Zwar gilt hier: ∂ ∂y



−y 2 x + y2

 =

∂ ∂x



x 2 x + y2

 ,

also wäre die Jacobi-Matrix symmetrisch zumindest dort, wo sie definiert ist, also für (x, y) 6= (0, 0). Wie wir in Aufgabe 1.14 gesehen haben, sind die Kurvenintegrale zu obigem Vektorfeld nicht wegunabhängig. Folglich existiert in der ganzen Ebene kein Potential. In der Halbebene x > 0 können wir aber ein Potential angeben: Z

(x,y)

ϕ(x, y) =

~v d~x (1,0) (x,y)

−y x dx + 2 dy 2 + y2 x x + y2 (1,0) y = arctan + const. x Z

=

24

1 Vektoranalysis

Aufgabe 1.21 Zeigen Sie, dass folgendes Vektorfeld ein Potential besitzt, und berechnen Sie dieses. ~v (x, y, z) = (6xy 2 + z, 6x2 y + 3y 2 , x) Lösung: Wir überlassen es hier dem freundlichen Leser, die Rotation des Vektorfeldes zu bestimmen und festzustellen, dass sie verschwindet. Damit wissen wir dann, dass unser Vektorfeld in der Tat ein Potential besitzt. Dieses müssen wir nun bestimmen. Gesucht wird daher eine Funktion ϕ mit ~v = grad ϕ, also

(i)

∂ϕ ∂ϕ ∂ϕ = 6xy 2 + z, (ii) = 6x2 y + 3y 2 , (iii) = x. ∂x ∂y ∂z

Wir integrieren die Gleichung (i) bezüglich x: ϕ(x, y, z) = 3x2 y 2 + zx + f (y, z),

(∗)

wobei die Funktion f die Stelle der Integrationskonstanten einnimmt. Differenziert man diese Gleichung nach y, so erhält man: ∂ϕ ∂f = 6x2 y + . ∂y ∂y Der Vergleich mit der Gleichung (ii) liefert: ∂f = 3y 2 , ∂y also f (y, z) = y 3 + g(z), wobei wiederum g die Stelle der Integrationskonstanten einnimmt. Einsetzen in (*) liefert: ϕ(x, y, z) = 3x2 y 2 + zx + y 3 + g(z). Differenziert man diese Gleichung nach z, so folgt: ∂ϕ ∂g =x+ . ∂z ∂z Der Vergleich mit der Gleichung (iii) führt damit auf: g = const, also ϕ(x, y, z) = 3x2 y 2 + y 3 + zx + const. Durch direktes Nachrechnen ergibt sich: grad ϕ = (6xy 2 + z, 6x2 y + 3y 2 , x) = ~v .

1.3 Potential, Vektorpotential

25

Aufgabe 1.22 Sei im Quader x0 ≤ x ≤ x1 , y0 ≤ y ≤ y1 , z0 ≤ z ≤ z1 ein C 1 -Vektorfeld ~v gegeben, welches quellenfrei ist. Zeigen Sie, dass dann ein Vektorfeld w ~ existiert, das die Bedingungen rot w ~ = ~v und div w ~ = g erfüllt, wobei g eine vorgegebene stetige Skalarfunktion ist. Lösung: In der Aufgabe soll auf konstruktivem Weg zu einem vorgegebenen Vektorfeld ein Vektorpotential berechnet werden. Damit ist der wesentliche Schritt des folgenden Satzes getan. Die umgekehrte Behauptung ergibt sich unmittelbar aus der Formel: div ~v = div rot w ~= 0. Existenz des Vektorpotentials 1

Ein C –Vektorfeld ~v ist in einem einfach zusammenhängenden Gebiet G genau dann quellenfrei (solenoidal), also div ~v = 0, wenn in G ein Vektorfeld w ~ existiert mit ~v = rot w, ~ wenn also ~v ein Vektorpotentialfeld ist. Laut Aufgabenstellung ist das gegebene Vektorfeld ~v quellenfrei. Damit benötigen wir eine Idee, wie wir ein Vektorpotential w ~ bestimmen können. Zunächst suchen wir nach einem Vektorfeld w ~ 0 mit rot w ~ 0 = ~v . Solch ein w ~ 0 ist nicht eindeutig bestimmt, denn ist ϕ eine beliebige Skalarfunktion, so ist rot w ~ 0 = rot (w ~0 + grad ϕ), da rot grad ϕ = 0 ist. Daher machen wir einen Ansatz in vereinfachter Form:

Ansatz für Vektorpotential w ~ 0 = (α, β, 0)

α, β Sakalarfunktionen von x, y, z

Damit folgt:  rot w ~0 =



∂β ∂α , , ∂z ∂z



∂β ∂α − ∂x ∂y

 .

Setzen wir dies gleich ~v , so erhalten wir drei Gleichungen −

∂β ∂α ∂β ∂α = v1 , = v2 , − = v3 . ∂z ∂z ∂x ∂y

Halten wir x und y fest und integrieren wir die erste Gleichung bezüglich z, so folgt: Z

z

β(x, y, z) = −

v1 (x, y, z˜)d˜ z + b(x, y), z0

26

1 Vektoranalysis

wobei b(x, y) als Integrationskonstante anzusehen ist. Analog folgt: Z

z

α(x, y, z) =

v2 (x, y, z˜) d˜ z + a(x, y), z0

wobei wiederum a(x, y) die Stelle der Integrationskonstanten einnimmt. Einsetzen in die dritte Gleichung ergibt:  Z z ∂v1 (x, y, z˜) ∂v2 (x, y, z˜) ∂b(x, y) ∂a(x, y) + d˜ z+ − = v3 (x, y, z). − ∂x ∂y ∂x ∂y z0 Da ~v quellenfrei ist, gilt div ~v = 0, also   ∂v1 ∂v2 ∂v3 − + = . ∂x ∂y ∂z Wegen Z

z

z0

∂v3 (x, y, z˜) d˜ z = v3 (x, y, z) − v3 (x, y, z0 ) ∂z

erhält man somit eine Bestimmungsgleichung für die beiden „Integrationskonstanten“ a, b: ∂b(x, y) ∂a(x, y) − = v3 (x, y, z0 ). ∂x ∂y Wählt man hier z. B. Z a ≡ 0,

x

b(x, y) =

v3 (˜ x, y, z0 ) d˜ x, x0

so erfüllt offensichtlich das Vektorfeld w ~ 0 = (α, β, 0) die Bedingung rot w ~ 0 = ~v , und die vier eingerahmten Formeln geben ein Berechnungsschema an. Dieses Vektorfeld w ~ 0 heißt Vektorpotential des Feldes ~v . Da es, wie wir oben schon bemerkt haben, nicht das einzige Vektorpotential ist, ergibt sich die Frage nach weiteren Einschränkungen. Gibt es also vielleicht ein Vektorpotential, welches der Bedingung genügt div w ~ = g, g vorgegebene Funktion. Setzen wir w ~ =w ~ 0 + grad ψ mit einer beliebigen Skalarfunktion ψ, so folgt: rot w ~ = rot (w ~ 0 + grad ψ) = rot w ~ 0 = ~v ,

1.3 Potential, Vektorpotential

27

div w ~ = div (w ~ 0 + grad ψ) = div w ~ 0 + ∆ ψ = g. Kann man aus der letzten Gleichung ∆ ψ = g − div w ~0 die Funktion ψ gewinnen? Es handelt sich um die sogenannte Poisson-Gleichung, deren Lösung über einem Quader als Volumenintegral möglich ist, wie wir später im Rahmen der elliptischen partiellen Differentialgleichungen noch klären werden. Aufgabe 1.23 Gegeben sei das Vektorfeld ~v (x, y, z) = (y + 1, 3y, −3z) im Quader x0 ≤ x ≤ x1 , y0 ≤ y ≤ y1 , z0 ≤ z ≤ z1 . (a) Zeigen Sie, dass ~v quellenfrei ist. (b) Berechnen Sie ein zugehöriges Vektorpotential (Probe!). (c) Wie sieht die Gesamtheit aller Vektorfelder w ~ aus, die rot w ~ = ~v erfüllen? Lösung: Zu (a) Wir zeigen: div ~v = 0: ∂(y + 1) ∂(3y) ∂(−3z) + + ∂x ∂y ∂z = 0 + 3 − 3 = 0.

div ~v =

Zu (b) Ansatz: w ~ 0 = (α, β, 0); α, β Skalarfunktionen von x, y, z. Gesucht: Vektorfeld w ~ mit rot w ~ = ~v . Es gilt:  rot w ~0 =

−∂β ∂α ∂β ∂α , , − ∂z ∂z ∂x ∂y

 = ~v ,

also −∂β = v1 = y + 1 ⇒ β(x, y, z) = ∂z = ∂α = v2 = 3y ⇒ α(x, y, z) = ∂z =

Z

z



(y + 1) d˜ z + b(x, y) z0

−(y + 1)z + (y + 1)z0 + b(x, y), Z z 3y d˜ z + a(x, y) z0

3yz − 3yz0 + a(x, y).

28

1 Vektoranalysis

Mit div ~v = 0 aus 3. Komponente:  Z z ∂v1 ∂v2 ∂b ∂a − + d˜ z+ − = v3 (x, y, z), ∂x ∂y ∂x ∂y z0 also

Z

z

z0

∂v3 d˜ z = v3 (x, y, z) − v3 (x, y, z0 ), ∂z =⇒

∂b ∂a − = v3 (x, y, z0 ). ∂x ∂y

Wähle a ≡ 0 =⇒ Z

x

b(x, y) =

v3 (˜ x, y, z0 ) d˜ x x Z x0

−3z0 d˜ x = −3z0 x + 3z0 x0 ,

= x0

d.h. w ~ 0 = (3yz − 3yz0 , −yz − z + yz0 + z0 − 3z0 x + 3z0 x0 , 0).



 −∂β ∂α ∂β ∂α , , − ∂z ∂z ∂x ∂y = (−(−y − 1), 3y, −3z0 − 3z + 3z0 ) = ~v .

Probe: rot w ~0 =

Zu (c) Beh.: Jedes Vektorfeld w ~ mit rot w ~ = ~v lässt sich darstellen als w ~ =w ~ 0 + grad f mit einer Skalarfunktion f . Ist nämlich w ~ ein Vektorfeld mit

rot w ~ = ~v , so erhalten wir

rot w ~ = ~v = rot w ~ 0 ⇒ rot (w ~ −w ~ 0 ) = 0, d. h. das Kurvenintegral über (w ~ −w ~ 0 ) ist wegunabhängig. Dann gibt es bekanntlich eine Skalarfunktion f mit w ~ −w ~ 0 = grad f , also w ~ =w ~ 0 + grad f . Aufgabe 1.24 Gibt es im Würfel −1 ≤ x ≤ 1, −1 ≤ y ≤ 1, −1 ≤ z ≤ 1 ein differenzierbares Vektorfeld w ~ mit (a) rot w ~ = ~r , wobei ~r der Vektor vom Nullpunkt zum Punkt (x, y, z) ist, (b) rot w ~ = (2, 1, 3) ?

1.4 Oberflächenintegrale

29

Lösung: Zu (a) Gäbe es ein Vektorfeld w ~ mit rot w ~ = ~r, so müsste nach dem Existenzsatz von Seite 25 div rot w ~ verschwinden; aber es gilt: div rot w ~ = div ~r = div (x, y, z) = 1 + 1 + 1 = 3 6= 0. das heißt, das Vektorfeld ~v = ~r ist kein Vektorpotentialfeld. Zu (b) Hier gilt: div (2, 1, 3) = 0, also existiert ein Vektorfeld w ~ mit rot w ~ = (2, 1, 3). Nach Aufgabe 1.22 machen wir den Ansatz: w ~ = (α, β, 0). Dann folgt: Z

z

Z

α(x, y, z) =

z

v2 (x, y, z˜)d˜ z + a(x, y) =

1d˜ z + 0 = z + 1, Z z Z z β(x, y, z) = − v1 (x, y, z˜) d˜ z + b(x, y) = − 2d˜ z + 3x + 3 −1

z0

−1

z0

= −2z − 2 + 3x + 3 = 3x − 2z + 1, Z x Z x b(x, y) = v3 (˜ x, y, z)d˜ x= 3d˜ x = 3x + 3. −1

x0

Damit erhalten wir: w ~ = (z + 1, −2z + 3x + 1, 0).

1.4

Oberflächenintegrale

Aufgabe 1.25 Bestimmen Sie die Fläche F, die begrenzt ist durch die Parabeln y 2 = 4 − x und y 2 = 4 − 4x. Lösung: Die gemeinsamen Schnittpunkte beider Parabeln sind (0, 2) und (0, −2). Dann folgt Z 2 Z 4−y2 Z 2 Z 4−y2 F= 1dx dy = 2 · 1 dx dy 2 2 −2 1− y4

1− y4

0

Z

2

  4−y 2 x| y2 dy

2

  y2 (4 − y 2 ) − (1 − ) dy 4

= 2·

1−

0

Z = 2· 0

Z

2

4

3 (3 − y 2 )dy 4 0  i  2 1 i2 = 3 · 2 y − y3 = 8. 12 0 0 = 2·

30

1 Vektoranalysis

Eine andere, viel einfachere, aber nicht zum Stoff passende Lösung besteht darin, das Blatt um 90◦ zu drehen. Dann handelt es sich um gewöhnliche Funktionsgraphen, und es genügt Schulmathematik. Aufgabe 1.26 Bestimmen Sie den Flächeninhalt des Kegelabschnittes x2 + y 2 = 3z 2 oberhalb der (x, y) -Ebene und innerhalb des Zylinders x2 + y 2 = 4y. Lösung: z 6

Bei der Gleichung des Zylinders handelt es sich um einen Kreis in der (x, y)–Ebene mit Mittelpunkt (0, 2) und Radius 2: x2 + (y − 2)2 = 4. Die Zylinderachse ist damit parallel zur z-Achse. Zu berechnen ist also der Flächeninhalt des auf der Kegelmantelfläche liegenden Flächenstücks.

............................................................ ............. ....... HH ..................................................................................................................................................... HH   H HH. ....................... ...... .............. ............................. x

4

y

Abbildung 1.3: Schnitt von Zylinder und Kegel

Dass es sich hier um ein Flächenstück handelt, sehen wir auf folgende Weise: Wir betrachten das fragliche Teil als Bild unter der Abbildung: f~ : D → IR3 , wobei D der obige Kreis in der (x, y)–Ebene und f~ die Abbildung ist: ! r 1 2 2 ~ f (x, y) = (x, y, z) = x, y, (x + y ) . 3 Offensichtlich ist diese Abbildung stetig differenzierbar, also C 1 . Die Funktionalmatrix hat den Rang 2:  ∂f1 ∂f1    ∂x ∂y 1 0   ∂f ∂f 2 2   0 1 . f~0 (x, y) :   ∂x ∂y  = ... ... ∂f3 ∂f3 ∂x

∂y

Damit handelt es sich wirklich um ein Flächenstück. Zur Berechnung des Flächeninhalts ist das folgende „Oberflächenintegral 1. Art“ zu berechnen: ZZ 1 · dσ. F

1.4 Oberflächenintegrale

31

Allgemein sind Oberflächenintegrale 1. Art dabei so definiert:

Oberflächenintegral 1. Art Seien F ein Flächenstück, D ein sogenanntes Parametergebiet mit den Koordinaten u, v und der Parameterdarstellung f~ : D → IR3 und ϕ : G → IR eine stetige Funktion und F ⊆ G ⊆ IR3 , dann sei Z ZZ ϕ(~x) dσ := ϕ(f~(u, v)) · |f~u × f~v |(u,v) du dv F

D

Im Sonderfall, wo das Flächenstück als Funktionsgraph einer Funktion g(x, y) über einem ebenen Flächenstück dargestellt werden kann, ergeben sich die Parameter des Parametergebiets D auf natürliche Weise: man nehme die Koordinaten der Ebene als Parameter u = x, v = y. Dann lautet die Parametrisierung: f~(u, v) := (u, v, g(u, v)). Daraus folgt: f~u = (1, 0, gu ), f~v = (0, 1, gv ), und damit: |f~u × f~v | =

p gu (u, v)2 + gv (u, v)2 + 1.

Also folgt

ZZ

Oberflächenintegral 1. Art (Sonderfall) ZZ p ϕ(~x) dS = ϕ(f~(u, v)) gu (u, v)2 + gv (u, v)2 + 1 dudv.

F

D

Diese Formel wenden wir nun auf unsere obige Aufgabe an: Es gilt: z = g(x, y) = q 1 2 2 3 (x + y ); da wir nur den Teil des Kegelmantels oberhalb der (x, y)–Ebene betrachten sollen, braucht hier nur das positive Vorzeichen bei der Wurzel berücksichtigt zu werden. Damit folgt jetzt, wenn wir statt x, y die Parameter u und v schreiben: gu (u, v) =

∂z u ∂z v = , gv (u, v) = = . ∂u 3z ∂v 3z

So entsteht 

∂z ∂u

2

 +

∂z ∂v

2 +1=

9z 2 + u2 + v 2 12z 2 4 = = . 2 9z 9z 2 3

32

1 Vektoranalysis

Damit ergibt sich der gesuchte Flächeninhalt S, wenn wir das letzte Integral mit Hilfe einer Integraltafel lösen: # Z 4 "Z √4v−v2 r 4 du dv S = √ 3 0 − 4v−v 2 # r Z 4 "Z √4y−y2 4 = 2· dx dy 3 0 0 √ Z 4p 4 8 3π 2 = √ 4y − y dy = . 3 3 0 Die Berechnung des Integrals lässt sich auch durch Verwendung von Zylinderkoordinaten durchführen. Der in der (x, y)–Ebene liegende Kreis S 0 schreibt sich in Polarkoordinaten: ρ = 4 sin ϑ,

0 ≤ ϑ ≤ π.

Dann folgt: # Z π "Z 4 sin ϑ 2 2 √ dS = √ ρ · dρ dϑ S = 3 3 S0 0 0 Z π Z π 1 1 = √ ρ2 |40 sin ϑ dϑ = √ 16 sin2 ϑ dϑ 3 0 3 0 16π 8π = √ =√ . 2 3 3 Z

Aufgabe 1.27 Wie lautet die Transformationsformel für Oberflächenintegrale 1. Art, wenn man von kartesischen zu Polar-Koordinaten übergeht? Lösung: Durch x = X(ξ, η), y = Y (ξ, η) werde F ? ⊆ IR2 eineindeutig auf F ⊆ IR2 abgebildet (F ? habe stückweise glatten Rand, und X und Y seien aus C 1 (F ? )). Im Innern von F ? gelte:

∂X ∂ξ ∂X ∂η

∂Y ∂ξ ∂Y ∂η

6= 0.

Ist dann ϕ in F stetig, so folgt: Transformationsformel für Oberflächenintegrale 1. Art ZZ ZZ ∂(X, Y ) dξdη ϕ(x, y) dxdy = ϕ(X(ξ, η), Y (ξ, η)) · ∂(ξ, η) F F?

1.4 Oberflächenintegrale

33

Mit den Polarkoordinaten x = r · cos ϑ = X(r, ϑ),

y = r · sin ϑ = Y (r, ϑ)

folgt dann: ∂(X, Y ) cos ϑ sin ϑ = ∂(ξ, η) −r · sin ϑ r · cos ϑ = r, also die Formel: Transformationsformel für Polarkoordinaten ZZ ZZ ϕ(x, y) dxdy = ϕ(r cos ϑ, r sin ϑ) · r drdϑ F?

F

Aufgabe 1.28 Berechnen Sie das folgende Integral: ZZ 2 2 e−(x +y ) dS, F

wobei F der Kreis in der (x, y)–Ebene sei: x2 + y 2 ≤ a2 ,

a ∈ IR+ .

Lösung: Versucht man, das Integral, so wie es vorgegeben ist, zu lösen, stößt man auf ein elementar nicht auswertbares Integral. Daher führen wir Polarkoordinaten ein und verwenden die Transformationsformel aus Aufgabe 1.27.   Z π Z a Z a Z π 2 2 r · e−r dr dϑ = r · e−r dϑ dr −π 0 0 −π Z a 2 = 2π · r · e−r dr, u := r2 Z = π·

0 a2

2

e−u du = π(1 − e−a ).

0

Aufgabe 1.29 Berechnen Sie das Integral ZZ p x2 + y 2 dxdy F

über dem Gebiet F in der (x, y)–Ebene, das begrenzt wird durch x2 + y 2 = 25.

34

1 Vektoranalysis

Lösung: Das Gebiet F ⊆ IR2 ist ein Kreis. Wir führen Polarkoordinaten ein: x = r cos ϑ, y = r sin ϑ. Mit der Formel aus Aufgabe 1.27 ergibt sich dann: ZZ p ZZ Z x2 + y 2 dxdy = r · r dr dϑ = F

Z = 0

F 2π



0

5

Z

 r2 dr dϑ

0

125 250 π dϑ = . 3 3

Aufgabe 1.30 „Florentiner oder Vivianisches Problem (1692)“ (Viviani 1622 – 1703, Schüler Galileis in Florenz)

y 6

............................ ..... ....... . . ... G '$ '$ .. .. ... .. ... ... .. x ... . . ... . &% &% .... .. . ...... . . ..............................

Auf der Grundebene einer Halbkugel werden zwei sich längs des lotrechten Kugelhalbmessers berührende gerade Kreiszylinder errichtet, deren Durchmesser gleich dem Kugelradius sind. Sie schneiden aus der Halbkugelfläche zwei runde Fenster aus. Berechnen Sie den Flächeninhalt des übriggebliebenen Teils der Halbkugelfläche.

Abbildung 1.4: Florentiner Problem Lösung: Die Gleichung der oberen Halbkugel lautet: p z = + R 2 − x2 − y 2 , die des rechten Zylinders: x2 − Rx + y 2 = 0.

1.4 Oberflächenintegrale

35

Beide schneiden sich längs einer Kurve, die im Grundriss ein Kreis, von vorne gesehen die Parabel z 2 = R2 − Rx ist. Da die Oberfläche als Funktionsgraph über der (x, y)– Ebene liegt, können wir die Formel aus Aufgabe 1.26 anwenden. Zu berechnen ist also das Integral: s

ZZ G

∂z ∂x

2

 +

∂z ∂y

2

ZZ

R dx dy G z ZZ R p = dx dy, 2 R − x2 − y 2 G

+ 1 dx dy =

wobei G das Restgebiet des Grundkreises ist. Wir berechnen jetzt das Komplement, also die Fläche des ausgeschnittenen Teils F ? , die Grundfläche F für das Integral sei also die Kreisfläche des Zylinders:

?

s

ZZ

F = F

∂z ∂x

2

 +

2

∂z ∂y

+ 1 dx dy.

Dieses Integral lässt sich nach folgender Regel auswerten: Ist ein Gebiet F im IR2 gegeben durch:

F : a ≤ x ≤ b,

y1 (x) ≤ y ≤ y2 (x),

so gilt die folgende Formel zur Integralauswertung:

ZZ

Formel zur Integralauswertung # Z b "Z y2 (x) f (x, y) dx dy = f (x, y) dy dx

F

a

y1 (x)

Analog haben wir die Formel: Ist ein Gebiet F im IR2 gegeben durch:

F : x1 (y) ≤ x ≤ x2 (y), so gilt die folgende Formel zur Integralauswertung:

c ≤ y ≤ d,

36

1 Vektoranalysis

Formel zur Integralauswertung # ZZ Z d "Z x2 (y) f (x, y) dx dy = f (x, y) dx dy F

c

x1 (y)

Unser zu berechnendes Integral lautet also: ?

Z

R

"Z

F = 0



Rx−x2

√ − Rx−x2

#

R p

R 2 − x2 − y 2

dy dx.

Beschäftigen wir uns zunächst mit dem inneren Integral: √

Z

Rx−x2

√ − Rx−x2

1 p R2 − x2 − y 2

 dy = arcsin √

y 2 R − x2

√Rx−x2 √ − Rx−x2

√ √ Rx − x2 − Rx − x2 = arcsin √ − arcsin √ R 2 − x2 R2 − x2 √ Rx − x2 = 2 · arcsin √ R 2 − x2 r x = 2 · arcsin . R+x

Verwenden wir nun für das gesamte Integral die Substitution: r sin ϕ =

x R · sin2 ϕ =⇒ x = =R· R+x 1 − sin2 ϕ



 1 −1 , cos2 ϕ

also: dx d =R· dϕ dϕ



1 −1 cos2 ϕ



 =R· (

 1 0 ) , cos2 ϕ

so folgt mit partieller Integration:

 0 Z π4 1 F ? = 2R2 · ϕ· dϕ cos2 ϕ 0 ( )  π4 Z π 4 ϕ 1 2 = 2R − dϕ cos2 ϕ 0 cos2 ϕ 0 "  π4 # ϕ = 2r2 = πR2 − 2R2 . cos2 ϕ 0

1.4 Oberflächenintegrale

37

Beide Zylinder zusammen schneiden also aus der Halbkugelflänche eine Fläche der Größe 2πR2 − 4R2 aus. Nun hat die Halbkugel einen Flächeninhalt von 2πR2 Damit ist die Größe der Fläche des gesuchten Restes 4R2 .

Bemerkung: Obwohl es sich um einen krummlinig begrenzten Bereich auf einer gekrümmten Fläche handelt, ist der Flächeninhalt exakt angebbar und keine transzendente Größe. Dieses Ergebnis hat seinerzeit die Mathematiker sehr aufgeregt. Aufgabe 1.31 Eine Fläche sei gegeben durch F :

x1 = u2 + v 2 , x2 = uv, x3 = u,

0 ≤ u ≤ 1, 0 ≤ v ≤ 1.

Berechnen Sie den Fluss Φ des Vektorfeldes ~v (x1 , x2 , x3 ) = (x3 , 0, x2 x3 ) durch obige Fläche. Lösung: Als Fluss Φ des Vektorfeldes ~v durch die Fläche F bezeichnen wir Fluss eines Vektorfeldes ZZ Φ := ~v (~x) d~σ F

Dies ist ein Oberflächenintegral 2. Art, das folgendermaßen berechnet wird:

Oberflächenintegral 2. Art Seien ~v : G → IR3 ein stetiges Vektorfeld und F ein Flächenstück im IR3 mit F ⊆ G ⊆ IR3 , sei D ein sogenanntes Parametergebiet mit Koordinaten u, v, und sei f~ : D → IR3 die Abbildung, die das Parametergebiet D auf das Flächenstück F abbildet. Dann sei: ZZ ZZ ~v (~x) · d~σ = ~v (f~(u, v)) · (f~u × f~v ) du dv F

D

Mit f~ := (u2 + v 2 , uv, u) ergibt sich: f~u = (2u, v, 1), f~v = (2v, u, 0), ~v = (u, 0, u2 v),

38

1 Vektoranalysis

woraus folgt: u 0 u2 v ~v · (f~u × f~v ) = 2u v 1 = −u2 + 2u4 v − 2u2 v 3 . 2v u 0 Somit erhalten wir: ZZ Z ~v · (f~u × f~v )du dv = F

1

Z

0

 (−u + 2u v − 2u v ) du dv 2

4

2 3

0 1

Z

1

= 0

1 2v 2v 3 3 (− + − ) dv = − . 3 5 3 10

Aufgabe 1.32 Berechnen Sie den Fluss Φ des Vektorfeldes  ~v (~x) :=

x x x √1 , √2 , √3 2 2 2



durch die Fläche x21 + x22 + x23 = 9. Lösung: Gesucht ist der Fluss des gegebenen Vektorfeldes ~v durch die Kugeloberfläche ∂K der Kugel vom Radius 3 mit Mittelpunkt im Nullpunkt. Zu berechnen ist also: ZZ Φ= ~v (~x) · d~σ . ∂K

Es handelt sich um ein Oberflächenintegral 2. Art, und wir benutzen wieder die Formel aus Aufgabe 1.31. ZZ Φ= ~v (~x) · ~n dσ, ∂K

wobei ~n der nach außen gerichtete Normaleneinheitsvektor an die Kugeloberfläche ist. Offensichtlich gilt (was man auch nachrechnen kann!): ~n = Beachte weiter:

1 (x1 , x2 , x3 ). 3

3 ~v = √ · ~n. 2

Damit folgt: r ~v · ~n = |~v | · |~n| · cos ∠(~v , ~n) =

1 2 3 (x + x22 + x23 ) cos 0 = √ . 2 1 2

1.4 Oberflächenintegrale

39

So erhalten wir das Ergebnis: ZZ

ZZ ~v · d~σ =

Φ := ∂K

∂K

3 √ dσ 2

3 108 = √ · 4πr2 = √ · π. 2 2 Aufgabe 1.33 Das Newton–Potential lautet bekanntlich: 1 ϕ(x, y, z) = p , x2 + y 2 + z 2

(x, y, z) ∈ IR \ {(0, 0, 0)}.

Berechnen Sie den Fluss des Gradienten von ϕ (Kraftfeld eines geladenen Teilchens im Ursprung) durch eine Kugeloberfläche (Radius a, Mittelpunkt in 0) und zeigen Sie so, dass er unabhängig vom Radius a ist.

Lösung: Der Fluss eines Vektorfeldes ~v durch eine glatte Oberfläche S ist definiert durch: ZZ φ :=

~= ~v dS

S

ZZ ~v · ~n dS, S

wobei ~n der äußere Normalenvektor an S ist. Hier ist S die Kugel um 0 mit Radius a. Dann ist der Normalenvektor der Vektor in Radiusrichtung mit Länge 1, also ~n =

1 (x, y, z) a

für jeden Punkt (x, y, z) auf der Kugeloberfläche. Berechnung des Vektorfeldes ~v : ~v = grad ϕ = grad

1 1 = grad p r x 2 + y 2 + z2

1 −y −z = − (x2 + y 2 + z 2 )−3/2 2x, p 3, p 3 2 2 2 2 2 x +y +z x + y2 + z2   −x −y −z = , , . a3 a3 a3

!

40

1 Vektoranalysis

Dann errechnet sich der Fluss folgendermaßen:  ZZ ZZ  −x −y −z 1 φ = ~v · ~n dS = , , (x, y, z) dS a3 a3 a3 a S S ZZ −(x2 + y 2 + z 2 ) = dS a4 S ZZ −a2 = 4 dS S a ZZ 1 1 = − 2 dS = − 2 · 4 π a2 = −4 π. a a S | {z } Kugeloberfl¨ ache

Dieser Wert ist tatsächlich unabhängig von a. Aufgabe 1.34 Sei im IR3 die Fläche F gegeben durch 5x1 − x22 = 0 Berechnen Sie

0 ≤ x1 ≤ 3, 0 ≤ x2 , 0 ≤ x3 ≤ 4.

mit ZZ

~v (~x) · ~n dF F

mit ~v (~x) := (3x2 , 2x3 , x21 x2 x3 ) und ~n der Normaleneinheitsvektor. Lösung: 1. Berechnung von ~n: Flächengleichung auffassen als Niveaufläche der Funktion f (x1 , x2 ) = 5x1 − x22 zum Niveau 0, dann ist ~n = grad f : ~n(x1 , x2 , x3 ) = ∇(5x1 − x22 ) = (5, −2x2 , 0), |~n| =

q 25 + 4x22 .

Also ~n ~n = = |~n|

5

−2x2

!

p ,p ,0 . 25 + 4x22 25 + 4x22

2. Berechnung von ~v · ~n: 1 ~v · ~n = (3x2 , 2x3 , x21 x2 x3 ) · (5, −2x2 , 0) · p 25 + 4x22 15x2 4x2 x3 = p −p . 2 25 + 4x2 25 + 4x22

1.5 Volumenintegrale

41

3. Parameterdarstellung: Die Fläche liegt als Funktionsgraph über der (x1 ,√ x3 )–Ebene 0 ≤ x1 ≤ 3, 0 ≤ x3 ≤ 4. Wähle x1 = u, x3 = v, dann gilt x2 = g(x1 , x3 ) = + 5x1 (beachte: ’+’ wegen x2 ≥ 0), also Flächengleichung: √ r(u, v) = (u, 5u, v). 4. Parametrisierung des Integrals: Laut Aufgabe 1.26 gilt: ZZ ZZ p h(. . .) dA = h(. . .) 1 + gu2 (x1 , x2 ) + gv2 (x1 , x2 ) dx1 dx2 . F

Mit g(x1 , x3 ) = g(u, v) =

F



5u folgt √ 5 gu = √ , 2 u

gv = 0.

Damit berechnet man nun das Oberflächenintegral zu: ZZ ZZ √ √ 1 √ ~v · ~n dF = · (15 5u − 4 · 5u · v) 25 + 4 · 5u F [0,3]×[0,4] r 5 1+ du dv 4u q Z 3 Z 4 (15 − 4v)√5u · 1 + 5 4u √ = dvdu 25 + 4 · 5u u=0 v=0 √ √ Z 3Z 4 (15 − 4v) u · 25 + 20u √ = dvdu √ 25 + 20u · 4u 0 0  Z 3Z 4 15 = − 2v dvdu 2 0 0 Z 3 = (30 − 16) du = 3 · 14 = 42. 0

1.5

Volumenintegrale

Aufgabe 1.35 Bestimmen Sie das Volumen, das nach oben durch das Paraboloid x2 + 4y 2 = z, nach unten durch die Ebene z = 0 und seitlich durch die Zylinder y 2 = x und x2 = y begrenzt wird. Lösung: Es handelt sich um die Volumenbestimmung eines räumlichen Gebildes, das senkrecht über einem ebenen Flächenstück der (x, y)–Ebene liegt. (Analogie zu Flächeninhalt unter

42

1 Vektoranalysis

einer Kurve!) Sei R der Bereich, der von den beiden Parabeln y 2 = x und x2 = y eingeschlossen wird. Dann rechnet man:

ZZ V =

"Z

1

Z



(x2 + 4y 2 ) dy dx

z(x, y) dy dx = R

Z

1

= 0

Z =

1

#

x

x2 h 4y 3 iy=√x  0

h

2

x y

iy=√x y=x2

+

3

y=x2

dx

 2√  √ (x x − x2 x2 ) + (4x x/3 − 4x6 /3) = 3/7.

0

Aufgabe 1.36 Machen Sie sich an Hand einer Skizze klar, dass die folgenden Integrale jeweils das gleiche Volumen ergeben: √

4

Z

Z

16−x2

Z

(a) 4 · 0

x2 +y 2 4

0 4

Z

Z

4

√ 2 z



Z

dz dy dx,

4z−x2

(b) 4 ·

dy dx dz, 0

Z c) 4 · 0

0 4

Z

0 4 y2 4

Z √4z−y2 dx dz dy. 0

Lösung: z

Zu (a) Nach Konvention wird das obige Volumenintegral so verstanden, dass zunächst innen über z, anschließend über y und danach über x integriert wird. So sind auch die Integrationsgrenzen zugeordnet. Das bedeutet 2 2 nun, dass z von z = x +y bis z = 4 variiert, 4 d.h. das zu berechnende Volumen ist nach unten durch das Paraboloid 4z = x2 + y 2 und nach oben durch die Ebene z = 4 begrenzt.

................................................4............................................................................. ... . ... .. . .... 2 . .. .... ... . ..... . . . . ......................................................................................................................................... y

−4 −2 x

0

2

4

Abbildung 1.5: Paraboloid

Bezüglich der beiden anderen Koordinaten x,y wird ein Viertelkreis in der (x, y)–Ebene beschrieben. Der Faktor 4 ergibt dann das gesamte Volumen des Paraboloids, das nach oben durch die zur (x, y)–Ebene parallele Ebene z = 4 begrenzt wird. Zu (b) √ Hier ist zunächst die Integration über y durchzuführen, und zwar von y = 0 bis y = 4z − x2 , das heißt, die linke Grenze ist die (x, z)–Ebene, nach rechts wird der

1.5 Volumenintegrale

43

Bereich durch das Paraboloid y 2 = 4z − x2 begrenzt. x variiert von 0 bis zur Parabel x2 = 4z, d. h. bis zur Schnittkurve des oben beschriebenen Paraboloids mit der (x, y)– Ebene, z von 0 bis zur Ebene z = 4. Offenkundig ergibt sich dasselbe wie bei (a). Zu (c) x wird nach hinten durch die (y, z)–Ebene (x = 0), nach vorne durch das Paraboloid 4z = x2 + y 2 begrenzt. z variiert von y 2 = 4z, also der Schnittkurve des Paraboloids mit der (y, z)–Ebene, bis zur Ebene z = 4, y von 0 bis 4. Wiederum ergibt sich das gleiche Volumen.

Aufgabe 1.37 Berechnen Sie das Dreifach-Integral von f (x, y, z) = z über dem Bereich R, der im ersten Oktanten durch die Ebenen y = 0, z = 0, x + y = 2, 2y + x = 6 und dem Zylinder y 2 + z 2 = 4 begrenzt wird. Lösung: Für die Berechnung von Dreifachintegralen gilt die folgende Regel: Ist das Volumen V als Gebiet im IR3 so beschaffen, dass V sich darstellt als a ≤ x ≤ b,

ϕ1 (x) ≤ y ≤ ϕ2 (x),

ψ1 (x, y) ≤ z ≤ ψ2 (x, y),

so gilt:

Berechnung von Dreifachintegralen # ) Z b (Z ϕ2 (x) "Z ψ2 (x,y) f (x, y, z) dV = f (x, y, z) dz dy dx

ZZZ V

a

ϕ1 (x)

ψ1 (x,y)

z 2 6

Wir wenden diese Regel hier an; denn R liegt im ersten Oktanten, begrenzt durch die Ebenen y = 0, z = 0, x+y = 2, 2y+x = 6 und den Zylindermantel y 2 + z 2 = 4.

2

y

2 6= x

Abbildung 1.6: Viertelzylinder

44

1 Vektoranalysis

Es gibt nun drei Möglichkeiten, R in die obige Regel einzupassen: • R liegt über der (x, y)–Ebene: 0 ≤ y ≤ 2, ϕ1 (y) := 2 − y ≤ x ≤ 6 − 2y =: ϕ2 (y), p ψ1 (x, y) := 0 ≤ z ≤ 4 − y 2 =: ψ2 (x, y). Dann führt obige Regel zu folgendem Dreifach-Integral: "Z √ 2 # ) Z (Z 2

6−2y

4−y

z dz dx dy. 0

2−y

0

• R liegt über der (y, z)–Ebene: p 0 ≤ y ≤ 2, ϕ1 (y) := 0 ≤ z ≤ 4 − y 2 =: ϕ2 (y), ψ1 (y, z) := 2 − y ≤ x ≤ 6 − 2y =: ψ2 (y, z). Das führt zu folgendem Integral: Z (Z √

4−y 2

2

0

6−2y

Z

0

 ) z dx dz dy.

2−y

• R liegt über der (y, z)–Ebene: p 0 ≤ z ≤ 2, ϕ1 (z) := 0 ≤ y ≤ 4 − z 2 =: ϕ2 (z), ψ1 (y, z) := 2 − y ≤ x ≤ 6 − 2y =: ψ2 (y, z). Das führt zu folgendem Integral: Z 2 (Z √4−z2 Z 0

0

6−2y

 ) z dx dy dz.

2−y

Weitere Möglichkeiten ergeben sich nur, wenn man Teilgebiete betrachtet. Führen wir die Rechnung beispielhaft für das erste Integral aus: # ) ZZZ Z 2 (Z 6−2y "Z √4−y2 z dV = z dz dx dy R

0

2−y 2

Z

Z

6−2y

= 0

1 = 2

Z

1 2

Z

=

2−y 2

z 2

dx dy 0

(4 − y 2 ) · x

i6−2y

dy

2−y

0

0

0

√  4−y2 2

2

(4 − y 2 )(6 − 2y − (2 − y)) dy =

26 . 3

Selbstverständlich ergibt sich bei den anderen beiden Möglichkeiten derselbe Wert.

1.6 Satz von Green

1.6

45

Satz von Green

Aufgabe 1.38 Verifizieren Sie den Satz von Green für den IR2 für das Integral I [(xy + y 2 )dx + x2 dy], k

wobei k der Rand des beschränkten Gebietes F ist, das durch y = x und y = x2 berandet wird. Lösung: Der Greensche Satz, also das Analogon des Gaußschen–Integralsatzes für die Ebene, lautet: Greenscher Satz für die Ebene Sei G ⊆ IR2 ein beschränktes Gebiet mit stückweise glattem Rand ∂G, ~v : G → IR2 ein C 1 –Vektorfeld. Ist dann ~n der nach außen gerichtete Normaleneinheitsvektor an die Randkurve ∂G, so gilt: ZZ Z div ~v (x, y) dx dy = ~v (x, y) · ~n ds F

k

Wählt man die Funktionen f und g so, dass gilt: ~v = (g, −f ), so stellt er sich in der alternativen Form dar: Greenscher Satz, alternative Form ZZ  F

∂g ∂f − ∂x ∂y



Z dx dy =

[f dx + g dy] k

Mit dieser alternativen Form erhalten wir für die linke Seite:

ZZ  F

∂g ∂f − ∂x ∂y



ZZ 

 ∂ 2 ∂ 2 dx dy = (x ) − (xy + y ) dx dy ∂y F ∂x  ZZ Z 1 Z x = (x − 2y) dx dy = (x − 2y) dy dx Z

F 1

xy − y

= 0

x2

0

 2 x x2

dx = −

1 . 20

46

1 Vektoranalysis

Für die rechte Seite berechnen wir zunächst das Kurvenintegral entlang y = x2 von (0, 0) nach (1, 1): Z 1 19 [(x · x2 + x4 ) dx + x2 · 2x dx] = , 20 0 und dann das Kurvenintegral entlang y = x von (1, 1) nach (0, 0): Z 0 [(x · x + x2 ) dx + x2 dx] = −1. 1

Zusammengefasst folgt dasselbe Ergebnis wie oben. y 6 (1,1)

1

Aufgabe 1.39 Verifizieren Sie den Satz von Green für I (x2 y + y) dx + y 2 dy,

y=x G

y = x2

k

0

wobei k die nebenstehende geschlossenen Kurve ist.

1

x

Abbildung 1.7: Greenscher Satz Lösung: Prüfen wir zunächst die Voraussetzungen zur Anwendung des Greenschen Satzes: (i) Die Kurve, die das oben gezeigte Gebiet G umfasst, besteht aus glatten Stücken, ist also stückweise glatt. (ii) Die beiden Funktionen P (x, y) = x2 y + y und Q(x, y) = y 2 sind stetig in G und haben stetige erste Ableitungen. So können wir den Satz also anwenden und rechnen beide Seiten getrennt nach. Rechte Seite: Z Z f dx + g dy = (x2 y + y) dx + y 2 dy k Zk Z = (x4 + x2 ) dx + x4 2x dx + (x3 + x) dx + x2 dx y=x2 1

Z =

(2x5 + x4 + x2 ) dx −

0

13 = − . 60

y=x

Z 0

1

(x3 + x2 + x) dx

1.6 Satz von Green

47

Linke Seite: Aus

∂g ∂x

2 = 0, ∂f ∂y = x + 1 folgt:

ZZ  G

∂g ∂f − ∂x ∂y



ZZ

(−x2 − 1) dxdy

dxdy =

G 1 Z x

Z =

 (−x2 − 1) dy dx

x2

0 1

Z

  (−x2 − 1)x − (−x2 − 1)x2 dx

= 0 1

Z

(x4 − x3 + x2 − x) dx

= 0

= −

13 , 60

was wir zeigen wollten. Aufgabe 1.40 Berechnen Sie die Fläche der Ellipse, gegeben durch x = a cos ϑ, y = b sin ϑ.

Lösung: Ist G ein Gebiet mit einer einfach geschlossenen Randkurve k, so erhält man den Flächeninhalt F von G durch:

Flächeninhaltsformel I 1 (x dy − y dx) F (G) = 2 k

Setzt man nämlich im Greenschen Satz aus Aufgabe 1.38 von Seite 45 f (x, y) = −y, g(x, y) = x, so folgt: ZZ 

I (x dy − y dx) = k

G

 ∂ ∂ (x) − (−y) dx dy ∂x ∂y

ZZ = 2·

dx dy = 2 · F (G). G

48

1 Vektoranalysis

Damit erhalten wir den gesuchten Flächeninhalt der Ellipse:

1 FEllipse = 2

I

1 = 2

Z

1 2

Z

1 2

Z

= =

1.7

x dy − y dx k 2π

[(a cos ϑ)(b cos ϑ)dϑ − (b sin ϑ)(−a sin ϑ) dϑ] 0 2π

a · b · (cos2 ϑ + sin2 ϑ) dϑ

0 2π

a · b dϑ = π · a · b. 0

Divergenzsatz von Gauß

Aufgabe 1.41 Verifizieren Sie den Divergenzsatz von Gauß für folgende Vektorfelder:

(a) ~v (x, y, z) = (4xz, −y 2 , yz) auf V : {(x, y, z) ∈ IR3 : 0 ≤ x, y, z ≤ 1},

(b) ~v (x, y, z) = (4x, −2y 2 , z 2 ) auf V := {(x, y, z) ∈ IR3 : x2 + y2 ≤ 4, 0 ≤ z ≤ 3}.

Lösung: Der Divergenzsatz von Gauß lautet:

Divergenzsatz von Gauß 3

Sei V ⊆ IR ein beschränktes Gebiet mit stückweise glatter und orientierbarer Randfläche ∂V . Sei ~v = (v1 (x, y, z), v2 (x, y, z), v3 (x, y, z) : G → IR3 ein C 1 –Vektorfeld. Dann gilt, wenn ~n der nach außen gerichtete Normaleneinheitsvektor auf ∂V ist: ZZZ ZZ div ~v dx dy dz = ~v · ~n dF V

∂V

1.7 Divergenzsatz von Gauß

49 z 6 C  

D

B % % E

   O

A y

% % F

G  /x 

Abbildung 1.8: Vereinbarung der Bezeichnungen Zu (a) Berechnung der linken Seite:  ZZZ ZZZ  ∂ ∂ ∂ 2 div ~v dx dy dz = (4xz) + (−y ) + (yz) dx dy dz ∂x ∂y ∂z V Z Z ZV = (4z − y)dx dy dz V 1

Z

Z

1

Z

1

(4z − y)dz dy dx

= 0

Z

0 1

Z

1

Z

0 1

= 0

Z

0

 2 1 2z − yz z=0 dy dx

1

(2 − y)dy dx =

= 0

0

3 . 2

Zur Berechnung der rechten Seite führen wir Bezeichnungen wie in Abbildung 1.8 auf Seite 49 ein. Damit ergibt sich für die rechte Seite: ZZ ZZ ~v · ~n dσ = ∂V

ZZ

ZZ

+

DEF G

+ | ABCO {z }

| ABEF {z }

ZZ

ZZ

=0

ZZ +

+ {z

=0

}

.

+

OGDC

|

=−1

BCDE

|

{z

= 12

| AF {z GO}

}

=0

Für das erste Integral erhalten wir zum Beispiel wegen ~n = ~e1 und mit x = 1: ZZ

Z

1

Z

= DEF G

0

0

1

(4z, −y 2 , yz) · ~e1 dy dz =

Z

1

Z

1

4z dy dz = 2. 0

0

50

1 Vektoranalysis

Analog berechnet man die anderen Integrale und kommt so durch Aufsummieren zu obigem Ergebnis. Zu (b) Berechnung der linken Seite:

ZZZ

ZZ Z (4 − 4y + 2z) dx dy dz

div ~v dx dy dz = V

V

Z

2



Z

=

4−x2

√ − 4−x2

−2

3

Z

(4 − 4y + 2z) dz dy dx 0

= 84π. Berechnung der rechten Seite: Wir zerlegen das Oberflächenintegral in drei Anteile: ZZ ZZ ZZ ZZ ··· = ··· + ··· + ∂V

F1

F2

···

F3

Dabei sei F1 die Grundfläche, F2 die Oberfläche und F3 der Mantel des Zylinders. Zu F1 : ~n = −~e3 , ~v · ~n = 0 ⇒ Zu F2 : ~n = ~e3 , ~v · ~n = 9 =⇒

RR F1

~v · ~n dF1 = 0.

RR F2

~v · ~n dF2 = 9

RR F2

dF2 = 36π.

Zu F3 : Zur Bestimmung des Normalenvektors an die Mantelfläche berechnen wir zunächst den zweidimensionalen Normalenvektor ~n2 an den Grundkreis des Zylinders: grad (x2 + y 2 ) = (2x, 2y) =⇒ ~n2 =

1 (x, y). 2

Damit lautet der Normalenvektor ~n im Punkt (x, y, z) des Zylindermantels ~n(x, y, z) =

1 (x, y, 0) =⇒ 2

~v · ~n = 2x2 − y 3 .

Setze x := 2 cos ϑ, y := 2 sin ϑ =⇒ dF3 = 2dϑ dz ZZ

Z



Z

3

~v · ~ndF3 = F3

ϑ=0 Z 2π

[2(2 cos ϑ)2 − (2 sin ϑ)3 ]2 dz dϑ

z=0

(48 cos2 ϑ − 48 sin3 ϑ) dϑ = 48π.

= 0

Aufsummieren führt zum selben Ergebnis wie oben.

1.7 Divergenzsatz von Gauß

51

Aufgabe 1.42 Verifizieren Sie den Gaußschen Divergenzsatz für das Vektorfeld: ~v (x1 , x2 , x3 ) := (x1 · x2 , x1 − x22 + x3 , x1 · x3 ) und das Gebiet V , das vom Zylinder Z := {(x1 , x2 , x3 ) ∈ IR3 : x22 +x32 = 9} und der Ebene E := {(x1 , x2 , x3 ) ∈ IR3 : x1 = 2} im ersten Oktanten eingeschlossen wird (Skizze!). Lösung: Die Formel im Divergenzsatz von Gauß lautet (vgl. Aufgabe 1.41): ZZZ ZZ div ~v dx1 dx2 dx3 = ~v · ~n dσ. V

∂V

Berechnung der linken Seite: Mit der Einführung von Zylinderkoordinaten x1 , r, ϕ mit x2 = r cos ϕ, x3 = r sin ϕ folgt: ZZZ

ZZZ (x1 − x2 )dx1 dx2 dx3 Z r=3 Z x1 =2   (x1 − r cos ϕ)dx1 r dr dϕ

div ~v dx1 dx2 dx3 = V

V π 2

Z =

ϕ=0 π 2

Z

Z

= 0

r=0 3

x1 =0

(2r − 2r2 cos ϕ) dr

 dϕ

0

Z

π 2

(1 − 2 cos ϕ) dϕ

= 9 0

π

= 9(ϕ − 2 sin ϕ)|02 = 9 · (

π − 2). 2

Man kann sich sofort an Hand der Skizze von folgenden Fakten überzeugen: F1 : ~n1 = (0, 0, −1), x3 = 0 ⇒ ~v · ~n1 = 0, F3 : ~n3 = (−1, 0, 0), x1 = 0 ⇒ ~v · ~n3 = 0, Damit fallen die Integrale über diese Flächen weg. Die Normalenvektoren der übrigen Flächen ergeben sich zu: ~n2 = (0, −1, 0), ~n4 = (1, 0, 0), ~n5 = (0, cos ϕ, sin ϕ).

52

1 Vektoranalysis

Berechnung der rechten Seite: Der Rand ∂V besteht aus fünf Flächen:

x3 3 6  1   3 x2

F1 Grundfläche in (x1 , x2 )-Ebene: Rechteck, F2 hintere Fläche in (x1 , x3 )-Ebene: Rechteck, F3 Viertelkreis in (x2 , x3 )-Ebene, F4 Viertelkreis in (x1 = 2)-Ebene: (2, r cos ϕ, r sin ϕ), 0 ≤ r ≤ 3, 0 ≤ π ϕ≤ , 2 F5 Teil des Zylindermantels: (x1 , 3 cos ϕ, 3 sin ϕ), 0 ≤ π x1 ≤ 2, 0 ≤ ϕ ≤ . 2

 2   x1

Abbildung 1.9: Viertelzylinder

Somit sind nur noch die folgenden drei Integrale auszuwerten: ZZ ZZ ZZ ZZ ~v · ~n dF = ~v~n2 dF2 + ~v~n4 dF4 + ~v~n5 dF5 ∂F F2 F4 F5 ZZ ZZ = − (x1 + x3 )dx1 dx3 + 2x2 dx2 dx3 F2 F4 ZZ + [(x1 − 9 cos2 ϕ + 3 sin ϕ) cos ϕ F5

+3x1 sin ϕ · sin ϕ] · 3dϕdx1 Z 3 Z 2 Z = − ( (x1 + x3 )dx1 )dx3 + 0

0

Z

π 2

+3

0

π 2

Z (

3

2r cos ϕ · rdr)dϕ

0

(2 cos ϕ − 18 cos3 ϕ + 6 sin ϕ cos ϕ + 6 sin2 ϕ)dϕ

0

= −18 +

9π . 2

Aufgabe 1.43 Sei F eine geschlossene, stückweise glatte und orientierbare Fläche im IR3 mit nach außen gerichtetem Normaleneinheitsvektor ~n, und sei ~r der Ortsvektor zum Punkt (x, y, z) . Zeigen Sie dann:  ZZ ~n · ~r 0, falls 0-Punkt außerhalb von F dF = 3 4π, falls 0-Punkt innerhalb von F. |~ r | F

1.7 Divergenzsatz von Gauß

53

Lösung: (a) Der 0-Punkt liege außerhalb, dann ist also im ganzen Gebiet G, dessen Randfläche von F gebildet wird, |~r| 6= 0. Wir wenden den Gaußschen Divergenzsatz (vgl. Aufgabe 1.41) an: ZZ ZZZ ~n · ~r ~r dF = div 3 dx dy dz. 3 |~ r | |~ r | F G Zunächst gilt die folgende einfache Formel für eine Skalarfunktion ϕ und ein Vektorfeld ~v : div (ϕ · ~v ) = div (ϕ · v1 , ϕ · v2 , ϕ · v3 ) ∂ϕ ∂v1 ∂ϕ ∂v2 ∂ϕ ∂v3 = v1 + ϕ + v2 + ϕ + v3 + ϕ ∂x ∂x ∂y ∂y ∂z ∂z = (grad ϕ) · ~v + ϕ · (div ~v ). Wenden wir diese Formel auf obigen Integranden an, so folgt mit der Formel aus Aufgabe 1.4:   ~r 1 1 1 div 3 = grad · ~r + 3 · div ~r = (−3|~r|−5 · ~r) · ~r + 3 · 3 = 0. |~r| |~r|3 |~r| |~r| Damit ergibt sich der erste Teil der Behauptung, das Integral verschwindet, falls der 0-Punkt außerhalb von F liegt. (b) Der 0-Punkt liege innerhalb von F , was bedeutet, dass bei bedenkenloser Anwendung des Gaußschen Divergenzsatzes durch 0 geteilt würde. Wir müssen also einen Trick anwenden. Sei K eine kleine Kugel mit Radius a um 0, die vollständig in F liege. Ihre Oberfläche sei k. Sei V der Bereich, der von k und F begrenzt werde, also das ursprüngliche Volumen ohne die ausgeschnittene Kugel k. Dann gilt in V überall: |~r| = 6 0, und auf V lässt sich das Ergebnis aus Teil (a) anwenden: ZZ ZZ ZZ ZZZ ~n · ~r ~r dF = ··· + ··· = div 3 dV = 0. 3 r |~r| k∪F ~ F k V Daraus folgt sofort: ZZ F

~n · ~r dF = − |~r|3

ZZ k

~n · ~r dk. |~r|3

Auf k gilt: |~r| = a, ~n = −~r/a, also ~n · ~r ~r · ~r 1 = − 4 = − 2. 3 |~r| a a Damit erhalten wir insgesamt: ZZ ZZ ZZ ZZ ~n · ~r ~n · ~r 1 1 4πa2 dF = − dk = dk = dk = 2 = 4π. 3 3 2 2 r| r| a a F |~ k |~ k a k

54

1 Vektoranalysis C. F. Gauß entdeckte also, dass das Ergebnis unabhängig vom Radius der kleinen Kugel ist. Wenn wir jetzt a → 0 streben lassen, ändert sich am Ergebnis gar nichts, und wir erhalten unsere Behauptung.

Aufgabe 1.44 Sei V ⊆ IR3 ein abgeschlossener, beschränkter Bereich mit stückweise glattem orientierbarem Rand ∂V , ~n der nach außen gerichtete Normaleneinheitsvektor an ∂V , f ein C 1 -Skalarfeld auf V . Zeigen Sie: ZZZ ZZ grad f dV = f ~n dF. V

∂V

Lösung: Um den Divergenzsatz von Gauß anwenden zu können, müssen wir das Volumenintegral über den Gradienten einer Skalarfunktion auf ein Volumenintegral über die Divergenz eines Vektorfeldes zurückführen. Daher bilden wir das folgende Vektorfeld ~v := f ~c,

~c beliebiger konst. Vektor.

Dann gilt nach Aufgabe 1.43: div (f ~c) = grad f · ~c, und mit der allgemeinen Umformung für das Skalarprodukt: (f ~c) · ~n = ~c · (f ~n) folgt dann mit dem Divergenzsatz: ZZZ ZZZ ZZZ ~c · grad f dV = ~c · grad f dV = div (f ~c) dV V ZZ V ZZ V = (f ~c) · ~n dF = ~c · (f ~n) dF ∂V ∂V ZZ = ~c · f ~n dF. ∂V

Nun war ~c ein beliebiger Vektor, damit folgt die Behauptung. Aufgabe 1.45 Sei V wie in Aufgabe 1.44, ~v ein C 1 -Vektorfeld auf V . Zeigen Sie: ZZZ ZZ rot ~v dV = ~n × ~v dF. V

∂V

Lösung: Wiederum wollen wir den Divergenzsatz von Gauß anwenden. Dazu setzen wir w ~ := ~v × ~c,

~c beliebiger konst. Vektor.

1.7 Divergenzsatz von Gauß

55

Dann folgt allgemein wie in Aufgabe 1.43: div (~v × ~c) = ~c · rot ~v . Bekannte Formeln für das Spatprodukt liefern (~v × ~c) · ~n = ~c · (~n × ~v ). Damit erhalten wir ZZZ ZZZ ZZZ ~c · (rot ~v ) dV = ~c · (rot ~v ) dV = div (~v × ~c) dV V ZZ V ZZ V = (~v × ~c) · ~n dF = ~c · (~n × ~v ) dF ∂V ∂V ZZ = ~c · ~n × ~v dF. ∂V

Da ~c ein beliebiger Vektor war, folgt die Behauptung. Aufgabe 1.46 Auftrieb eines schwimmenden Körpers Sei B ⊆ IR3 ein physikalischer Körper, der in einer Flüssigkeit mit dem spezifischen Gewicht ρ schwimmt. B ∗ ⊆ B befinde sich dabei unterhalb der Flüssigkeitsoberfläche. Leiten Sie das folgende Archimedische Auftriebsgesetz her: Die nach oben gerichtete Auftriebskraft eines Körpers ist betragsmäßig gleich dem Gewicht der verdrängten Flüssigkeit. Lösung: Der Druck der Flüssigkeit wirkt bekanntlich senkrecht auf die Körperoberfläche, also entgegengesetzt der (nach außen weisenden) Flächennormalen. Damit stellt sich der Druck p im Punkt ~x = (x, y, z) folgendermaßen dar:  Luftdruck p0 z ≥ h p(~x) = p0 + ρ(h − z) z ≤ h

h

z 6

~e3 6   

B B? x

  = y

Abbildung 1.10: Auftrieb ~ ist dann die durch den Druck auf die Körperoberfläche erzeugte Kraft: Der Auftrieb A ~=− A

ZZ ∂B

~ p(~x)dB.

56

1 Vektoranalysis

Wegen der Druckrichtung, die umgekehrt zur Normalenrichtung ist, entsteht hier das negative Vorzeichen. Die Zurückführung auf ein Volumenintegral gelingt mit dem Gaußschen Integralsatz für Skalarfelder, wie wir ihn in Aufgabe 1.44 abgeleitet haben, wobei wir benutzen:  (0, 0, 0) für z ≥ h grad p(~x) = , (0, 0, −ρ) für z < h ~ = − A

ZZ

~ =− p(~x)dB

ZZZ

grad p(~x)dV ZBZ Z grad p(~x)dV = ρ · ~e3 dV

Z Z∂B Z

= − ? B? ZZZ B = ρ dV · ~e3 = ρ · vol(B ? ) · ~e3 . B?

Da ρ · vol(B ? ) die Gewichtskraft der von B ? verdrängten Flüssigkeit ist, folgt die Behauptung.

1.8

Satz von Stokes

Aufgabe 1.47 Verifizieren Sie den Satz von Stokes für die Vektorfelder (a) ~v (x, y, z) = (z, x, y), F sei der Teil der Einheitskugelfläche im 1. Oktanten, (b) ~v (x, y, z) = (2x − y, −yz 2 , −y 2 z), F sei die obere Hälfte der Kugelfläche mit Radius R um den Nullpunkt. Lösung: Der Satz von Stokes für Vektorfelder ~v lautet: Satz von Stokes Sei F ein stückweise glattes, orientierbares Flächenstück im IR3 mit stückweise glatter, orientierbarer Randkurve c. ~v (x, y, z) sei ein C 1 –Vektorfeld auf einem Gebiet G, das die Fläche F enthalte (F ⊆ G). ~n sei der Normaleneinheitsvektor auf F ; seine Richtung kann frei gewählt werden. Die Orientierung der Randkurve c ist nach Festlegung der Richtung des Normalenvektors so zu wählen, dass ein Mensch, dessen Körper in Richtung des Normalenvektors auf der Randkurve steht, beim Voranschreiten das Flächenstück zur Linken hat. Dann gilt: ZZ I rot ~v · ~n dF = ~v · ~t ds F

k

1.8 Satz von Stokes

57 z 6 C 1

Zu (a) Berechnung der linken Seite: Da es sich bei der Fläche um ein Kugelstück handelt, ist der Normalenvektor ~n = (n1 , n2 , n3 ) = (x, y, z). Damit ist bereits seine Richtung festgelegt (alternativ hätten wir ~n = −(x, y, z) wählen können). Daraus ergibt sich dann auch die in der Skizze angezeigte Orientierung der Randkurve.

1By

   1 /x A 

Abbildung 1.11: Achtelkugel

Da sich die Fläche als Funktionsgraph der Funktion z = f (x, y) =

p

1 − x2 − y 2

über der (x, y)–Ebene darstellen lässt, verwenden wir die Formel aus Aufgabe 1.26. Eine leichte Rechnung ergibt: s

 1+

∂z ∂x

2

 +

∂z ∂y

2

1 =p . 1 − x2 − y 2

Gemäß Aufgabe 1.10 berechnet man für ~v = (z, x, y): rot ~v = (1, 1, 1).

Für die gesamte linke Seite ergibt sich dann, wenn wir Polarkoordinaten einführen und die Substitution r = sin u vornehmen (V k: Viertelkreis): ZZ

ZZ rot ~v · ~ndA = F

(1, 1, 1) · (n1 , n2 , n3 )dA Z ZF

= Vk

x+y+z p dx dy 1 − x2 − y 2

ZZ

x+y

=

p +1 1 − x2 − y 2

Vk π/2

1

! dx dy

r2 dr dϑ + 1 − r2 0 0 Z 1 Z π/2 r2 = (cos ϑ + sin ϑ) dϑ √ dr + 1 − r2 0 0 Z

=

Z

(cos ϑ + sin ϑ) √

π 4 π 4

58

1 Vektoranalysis π/2

Z

sin2 u du +

= 2· 0

π 4

π/2 u sin 2u π = 2 − + 2 4 4 0 2π π 3π = + = . 4 4 4 

Berechnung der rechten Seite: Nach Skizze wählen wir als Weg k:

A → B → C → A.

So spalten wir das Integral auf in: I Z Z Z ~v · ~t ds = ··· + ··· + ···    k AB BC CA Z Z Z = (v1 · t1 + v2 · t2 + v3 · t3 ) ds + ··· + ··· .    AB BC CA

Da die Kurve von A nach B nur in der (x, y)–Ebene verläuft, ist für das erste Integral z = 0, das heißt, der erste Summand im ersten Integral verschwindet wegen v1 = z. Der Tangentenvektor der Kurve hat natürlich auch keine Komponente in z-Richtung, da die Kurve ja eine ebene Kurve ist. Also ist t3 = 0, das heißt, dass auch der dritte Summand im ersten Integral verschwindet. Wir wählen die folgende Parameterdarstellung: p 0 ≤ s ≤ 1, y = s, x = 1 − s2 . Mit dieser Wahl läuft jetzt die Kurve mit wachsendem s tatsächlich von A nach B. Dann ist t2 = dy/ds = 1, so dass das folgende Integral zu berechnen bleibt: Z  AB

Z v2 · t2 ds =

1

p

1 − s2 · 1 · ds

0

i1 1 p (s 1 − s2 + arcsin s) 2 0 π = . 4 =

Analog behandelt man die beiden verbleibenden Integrale und erhält in Übereinstimmung mit der linken Seite das Gesamtergebnis I 3π ~v · ~t ds = . 4 k .

1.8 Satz von Stokes

59

Zu (b) Berechnung der linken Seite: Zur Berechnung des Oberflächenintegrals 2. Art wählen wir als Parameterdarstellung der Halbkugelfläche: f~(u, v) = (R sin u cos v, R sin u sin v, R cos u) 0 ≤ u ≤ π/2, 0 ≤ v ≤ 2π. Der Normalenvektor ergibt sich durch einfache Rechnung: ~n = f~u × f~v = R2 (sin2 u cos v, sin2 u sin v, sin u cos u). Gemäß Aufgabe 1.10 ergibt sich: rot ~v (f~) = (0, 0, 1). Damit folgt: ZZ

ZZ

rot ~v · dF~ = F

rot ~v (f~) · (f~u × f~v ) du dv

F

= R2

Z



Z

π/2

sin u cos u du dv 0 2

0

= π·R . Berechnung der rechten Seite: Die Randkurve ist der Kreis in der (x, y)–Ebene um den Nullpunkt mit Radius R. Als Parameterdarstellung wählen wir: f~(t) = (R cos t, R sin t, 0),

0 ≤ t ≤ 2π.

Dann folgt: ~v (f~(t)) = (2R cos t − R sin t, 0, 0), ~t = f~˙(t) = (−R sin t, R cos t, 0), und das gesuchte Kurvenintegral berechnet sich zu: I ∂F

~v · ~t ds =

Z



˙ ~v (f~(t)) · ~ (t) f dt

0

= R2

Z



0

= πR2 . in Übereinstimmung mit der linken Seite.

(−2 sin t cos t + sin2 t) dt

60

1 Vektoranalysis

Aufgabe 1.48 Verifizieren Sie den Satz von Stokes für das folgende Vektorfeld ~v (~x) = ~v (x1 , x2 , x3 ) = (4x2 , −4x1 , 3) und die Kreisscheibe F mit Radius 1 und Mittelpunkt (0, 0, 1), die in der Ebene x3 = 1 liegt. Lösung: Die Integralformel im Satz von Stokes lautet (vgl. Aufgabe 1.47) ZZ I rot ~v · ~n dF = ~v · d~x. F

k

Berechnung der linken Seite: ~e1 ~e2 ~e3 rot ~v = ∂/∂x1 ∂/∂x2 ∂/∂x3 = (0, 0, −4 − 4) = (0, 0, −8). 4x2 −4x1 3 Es ist der Normalenvektor ~n = (0, 0, 1) (senkrecht zur (x, y)-Ebene!). Damit ergibt sich rot ~v · ~n = −8. Für die gesamte linke Seite folgt dann ZZ ZZ rot ~v · ~n dF = −8 F

dF = −8π,

F

da mit r = 1 die Kreisfläche πr2 = π ist. Berechnung der rechten Seite: Um über den Kreisrand zu integrieren, führen wir Zylinderkoordinaten ein: x1 = cos t, x2 = sin t, x3 = 1, 0 ≤ t ≤ 2π. Damit ist ~v = (4 sin t, −4 cos t, 3) d~x = (dx1 , dx2 , dx3 ) = (− sin t dt, cos t dt, 0). Die gesamte rechte Seite ist dann I Z 2π ~v · d~x = [4 sin t(− sin t) dt − 4 cos t cos t dt] k

0

Z

2π 2

2

Z

−4(sin t + cos t) dt = −4

= 0



dt = −8π. 0

1.8 Satz von Stokes

61

H Aufgabe 1.49 Berechnen Sie k x dz, wenn k der Schnitt der Halbkugel p z = 1 − x2 − y 2 mit dem Zylinder x2 + y 2 = y ist. Die Umlaufrichtung geht dabei vom Punkt (0, 0, 1) in den 1. Oktanten.

Lösung: Die direkte Berechnung des Kurvenintegrals ist hier nicht so leicht durchführbar. Wir gehen deshalb den Umweg über den Satz von Stokes und berechnen das zugehörige Oberflächenintegral. Die Fläche ist Teil der Einheitskugel, der Normalenvektor lautet also: ~n = (x, y, z), das Vektorfeld ist ~v = (0, 0, x). Dessen Rotation ist: rot ~v = (0, −1, 0). Zu berechnen ist also das Integral: I

ZZ

ZZ rot ~v · ~n dF =

x dz = k

F

(−y) dF. F

F ist hier ein Kugelabschnitt, den man als Funktionsgraph der Funktion z = f (x, y) =

p

1 − x2 − y 2

über dem Kreis F˜ in der (x, y)–Ebene mit dem Mittelpunkt (0, 12 ) und Radius trachten kann. Wie früher schon ergibt sich: s

 1+

∂f ∂x

2

 +

∂f ∂y

2

1 2

be-

1 =p . 1 − x2 − y 2

Mit den Formeln aus Aufgabe 1.26 und 1.27, der Darstellung des Kreises F˜ mittels r = sin ϕ und der Substitution r = sin u folgt dann, wenn wir die Symmetrie des Halbkreises einbeziehen: ZZ

−y dx dy

ZZ (−y) dF = F

p

1 − x2 − y 2  Z π/2 Z sin ϕ r2 = −2 · sin ϕ √ dr dϕ 1 − r2 0 0 Z ϕ  Z π/2 2 = −2 · sin ϕ sin u du dϕ F˜

Z = − 0

2 = − . 3

0 π/2

0

(ϕ sin ϕ − sin2 ϕ cos ϕ) dϕ

62

1 Vektoranalysis

Aufgabe 1.50 Berechnen Sie das folgende Oberflächenintegral: ZZ rot ~v · ~n dF mit ~v = (x2 + y + 2, 2xy, 4z · ex ) F

und F = (x, y, z) ∈ IR3 : 9 − z = x2 + y2 und z ≥ 0 

(Ellipt. Paraboloid)

Lösung: z6

F ist ein elliptisches Paraboloid. Führt man die neue Achse ζ = 9 − z ein, so erkennt man, dass ζ nie kleiner als Null werden kann. ζ ≥ 0 bedeutet aber: z ≤ 9, d.h. das Paraboloid ist nach unten geöffnet. Die Orientierung der Randkurve wählen wir wie in der Skizze angedeutet, um den Satz von Stokes anwenden zu können.

...................... .. ... ... .. . .. . ............ .... . ........... ................. . ........ ............................................. y −3 0 ... 3 x

Abbildung 1.12: Ellipt. Paraboloid

Mit diesem Satz aus Aufgabe 1.47 (vgl. S. 56) führen wir die Berechnung des Oberflächenintegrals auf ein Kurvenintegral in der (x, y)–Ebene zurück. Die Randkurve hat als Kreis in der (x, y)–Ebene die Darstellung: z = 0 : x2 + y 2 = 9. Als Parametrisierung dieses Kreises wählen wir: x = 3 cos t, y = 3 sin t. Damit ergibt sich für das Vektorfeld ~v in der (x, y)-Ebene: ~v = (x2 + y + 2, 2xy, 0) = (9 cos2 t + 3 sin t + 2, 18 cos t sin t, 0). Hieraus folgt: ZZ I rot ~v · ~n dF = ~v · ~r dk F

k

Z



  9 cos2 t + 3 sin t + 2, 18 cos t sin t · [−3 sin t, 3 cos t] dt

= 0

Z = 0



[−27 cos2 t sin t − 9 sin2 t − 6 sin t + 54 sin t cos2 t] dt

1.8 Satz von Stokes

63 Z =



[27 sin t cos2 t − 9 sin2 t − 6 sin t] dt

0

 2π  2π cos3 t t 1 2π = 27 − −9 − sin 2t − 6 [− cos t)]0 3 2 4 0 0 = −9π. Aufgabe 1.51 Gegeben sei das Vektorfeld  ~v (x, y, z) =

−y x , ,z x2 + y 2 x2 + y 2



und der Torus D, den man dadurch erhält, dass der Kreis (x − 2)2 + z 2 ≤ 1, y = 0 um die z-Achse rotiert. In Aufgabe 1.15 hatten wir gesehen, dass in D gilt: rot ~v = 0, aber I ~v d~x 6= 0, k

wobei k der Kreis x2 + y 2 = 4, z = 0 ist. Warum lässt sich daraus kein Gegenbeispiel zum Satz von Stokes konstruieren?

Lösung: Die Aufgabe liefert kein Gegenbeispiel zum Satz von Stokes, wo das Flächenintegral über die Rotation des Vektorfeldes ja wegen der Rotationsfreiheit den Wert Null lieferte, wohingegen das Kurvenintegral einen Wert ungleich Null hat. Dieser Satz setzt nämlich ein Integral über ein Flächenstück in Beziehung zu einem Integral über die gesamte Randkurve des Flächenstücks. Hier kneift die Sache. Als Flächenstück im Torus bietet sich ein geschlossenes Band an, das ganz im Torus verläuft. Dieses hat aber neben dem betrachteten Kreis k noch den zweiten Randkreis als Randkurve. Zur Anwendung des Stokesschen Satzes muss also noch ein zweites Randintegral betrachtet werden. Wegen der Orientierungsvorschrift ist diese Randkurve entgegengesetzt zur ersten Randkurve zu orientieren. Somit ergäbe das Integral über diese Randkurve den negativen Wert zum ersten Integral, die Summe würde also verschwinden in guter Übereinstimmung mit der Rotationsfreiheit und dem Satz von Stokes. Ein Flächenstück, das nur den in der Aufgabe erwähnten Kreis als Randkurve besitzt, wäre zum Beispiel eine Halbkugel. Wegen der Singularität der gesamten z-Achse für das Vektorfeld verbietet sich diese Wahl. Das war ja auch der Grund für die Vorgabe des Torus in der Aufgabe.

64

1 Vektoranalysis

1.9

Maxwellsche Gleichungen

Aufgabe 1.52 Aus physikalischen Gesetzen lassen sich folgende Gleichungen herleiten: ~ ~ = − 1 ∂B , rot E c ∂t ~ = ρ, div D ~ = 1~j, rot H c ~ = 0. div B

(1) (2) (3) (4) Dabei ist: ~ E ~ H ~ B ~ D

: : : :

elektrische Feldstärke, magnetische Feldstärke, magnetische Induktion, Verschiebungsstrom,

~j c ρ

: : :

Flächenstromdichte, Lichtgeschwindigkeit, Raumladungsdichte,

und es gelten die Materialgleichungen: ~ = ε0 · E, ~ B ~ = µ0 · H, ~ ~j = σ · E. ~ D Zeigen Sie, dass das dritte Gesetz in der Form nicht korrekt ist, und modifizieren Sie es geeignet. Lösung: Rechnet man aus beiden Seiten des dritten Gesetzes die Divergenz aus, so folgt: 1 ~ = 0, div ~j = div rot H c also div ~j = 0. Andererseits können wir div ~j auf andere Weise berechnen: Für die gesamte Ladung Q in einem Volumen V ergibt sich: ZZZ Q= ρ dV. V

Die Änderung von Q in der Zeit t ist gleich dem Gesamtfluss des elektrischen Stromes durch die Oberfläche F von V .: ZZ ∂Q ~j dF. − = ∂t F

1.9 Maxwellsche Gleichungen

65

Die linke Seite dieser Gleichung formen wir um zu: ZZZ ZZZ ∂Q ∂ ∂ρ − =− ρ dV = − dV. ∂t ∂t V V ∂t Auf die rechte Seite wenden wir den Divergenzsatz von Gauß an: ZZ ZZZ ~j dF = div ~j dV. F

Daraus folgt dann die Gleichheit: ZZZ

V

div ~j dV = −

ZZZ

V

V

∂ρ dV. ∂t

Das bedeutet, als Folgerung aus der Definition und dem mathematischen Divergenz-Satz, also nicht aus physikalischen Beobachtungen ergibt sich: div ~j = −

∂ρ , ∂t

was im allgemeinen von 0 verschieden ist. Mit Gleichung (2) folgt damit: ~ ρ = div D,



~ ∂ρ ∂D = div , ∂t ∂t

also insgesamt: ~ ∂D div (~j + ) = 0. ∂t Dies gibt uns den Hinweis, wie wir Gleichung (3) zu modifizieren haben. Das resultierende System von Gleichungen ist das berühmte System der Maxwellschen Gleichungen: Maxwellsche Gleichungen differentielle Form

(1) (2) (3) (4)

~ ~ = − 1 ∂B rot E c ∂t ~ = ρ div D ~ ~ = 1 (~j + ∂ D ) rot H c ∂t ~ = 0 div B

Bemerkung: Hertz bestätigte erst mehr als zwanzig Jahre später experimentell die Existenz des von Maxwell theoretisch eingeführten Verschiebungsstroms als den Strom, der zwischen den Platten eines Kondensators erzeugt wird.

66

1 Vektoranalysis

Aufgabe 1.53 Leiten Sie aus den Maxwellschen Gleichungen (vgl. Aufgabe 1.52) her

(a) das Faradaysche Gesetz der elektromagnetischen Induktion: I ∂F

~ d~x = − 1 ∂ E c ∂t

ZZ

~ · dF~ , B

F

(b) das Gesetz von Oersted: I ∂F

~ d~x = 1 H c



ZZ I+ F

∂ ~ D · dF~ ∂t

 .

Lösung: Zu (a) Anwendung des Stokesschen Integralsatzes auf die linke Seite zusammen mit den Maxwellschen Gleichungen der Aufgabe 1.52 liefert: I

~ · d~x = E

ZZ

∂F

~ · dF~ rot E

F

ZZ −

= F

~ 1 ∂B · dF~ . c ∂t

Zu (b) Auf die gleiche Weise führt die Anwendung des Stokesschen Satzes in Verbindung mit den Maxwellschen Gleichungen zu: I

~ · d~x = H

ZZ

∂F

~ · dF~ rot H F

~ 1 ~ ∂D (j + ) · dF~ ∂t F c   ZZ 1 ~ ∂ ~ ~ = I+ D · dF . c F ∂t ZZ

=

Eine einfache Anwendung des Gaußschen Divergenzsatzes auf die verbleibenden beiden Gleichungen aus Aufgabe 1.52 ergibt das System der Maxwellschen Gleichungen in integraler Form, wenn wir mit I die elektrische Stromstärke bezeichnen:

1.9 Maxwellsche Gleichungen

67

Maxwellsche Gleichungen

(1? ) (2? ) (3? ) (4? )

integrale Form ZZ ~ d~x = − 1 ∂ ~ · dF~ E B c ∂t Z Z ∂F F ~ · dF~ = Q D F   I ZZ 1 ∂ ~ ~ ~ H d~x = I+ D · dF c F ∂t Z Z∂F ~ · dF~ = 0 B I

F

2

Lineare Gleichungssysteme

2.1

Numerisches Rechnen

Aufgabe 2.1 Sei a = 43.21 und b = 43.11. Berechnen Sie in Gleitpunktarithmetik mit Basis 10, Mantissenlänge l = 4 und Exponenten zwischen -9 und 10: a · a − b · b und (a − b) · (a + b) Lösung: 1.

(a) Exakte Rechnung: a2 = 0.186710410 · 104 , Damit folgt:

b2 = 0.185847210 · 104 .

a2 − b2 = 0.86320 · 101 .

(b) Rechnung in Gleitpunktarithmetik mit l = 4: a · a = 0.1867 · 104 ,

b · b = 0.1858 · 104 .

Daraus ergibt sich: a2 − b2 = 0.9 · 101 . Das bedeutet einen absoluten Fehler ∆x = 0.0368 und einen relativen Fehler ∆x/x = 4.26%. 2. Andere Klammerung: (a) Exakte Rechnung liefert: a − b = 0.1 · 100 ,

a + b = 0.86320 · 102 .

Das führt zu dem Ergebnis: (a − b)(a + b) = 0.8632 · 101 . (b) Rechnung in Gleitpunktarithmetik: a − b = 0.1 · 100 ,

a + b = 0.8632 · 102 ,

und damit erhalten wir: (a − b)(a + b) = 0.8632 · 101 . Das ist aber der exakte Wert.

70

2 Lineare Gleichungssysteme

Geschicktes Klammern hilft also manchmal, Auslöschung von Ziffern zu vermeiden und damit Rundungsfehler zu verringern. Aufgabe 2.2 Betrachten Sie die Summe S = 1 + 0.4 + 0.3 + 0.2 + 0.04 + 0.03 + 0.02 + 0.01. Welche Ergebnisse liefert ein Rechner, der in Gleitpunktarithmetik mit der Basis 10, Mantissenlänge l = 1, 2, 3 die Summe (a) von links nach rechts, (b) von rechts nach links aufsummiert? Lösung: Exakter Wert: S = 2 Zu (a) l = 1 :

1, 1 + 0.4 ∼ = 1, 1 + 0.3 ∼ = 1, . . . , S = 1.

Der absolute Fehler ist ∆x = 1, der relative Fehler also ∆x/x = 50%. l=2:

∼ 1.4, 1.4 + 0.3 ∼ 1, 1 + 0.4 = = 1.7, 1.7 + 0.2 ∼ = 1.9, 1.9 + 0.04 ∼ = 1.9, 1.9 + 0.03 ∼ = 1.9, 1.9 + 0.02 ∼ = 1.9, S = 1.9.

Der absolute Fehler ist ∆x = 0.1, der relative Fehler also ∆x/x = 5%. l=3:

Hier ergibt sich der exakte Wert.

Zu (b) l = 1 :

0.01 ∼ = 1 · 10−2 , 0.01 + 0.02 ∼ = 0.03, 0.03 + 0.03 ∼ = 0.06,

∼ 0.6, 0.6 + 0.4 ∼ 0.06 + 0.04 ∼ = 0.1, 0.1 + 0.2 ∼ = 0.3, 0.3 + 0.3 = = 1, 1 + 1 = 2 = S. Das ist bereits der exakte Wert. Aufgabe 2.3 Geben Sie einen Algorithmus an, der unter n gegebenen Zahlen, n ∈ IN, sowohl die grösste als auch die kleinste Zahl bestimmt, und berechnen Sie seine Komplexität. Lösung: Eingabe: Ausgabe:

n ∈ IN, f1 , f2 , . . . , fn ∈ IR. min := min1≤i≤n fi , max := max1≤i≤n fi .

2.1 Numerisches Rechnen

71

Algorithmus: i) Falls f1 < f2 : sonst

min := f1 , min := f2 ,

max := f2 max := f1 .

ii) Für i = 3, 4, . . . , n : Falls fi > max : max := fi , falls fi < min : min := fi . Berechnung der Komplexität: Zunächst bei i) ein Vergleich, danach bei ii) für i = 3, 4, . . . , n je zwei Vergleiche, also 2(n − 2), also insgesamt 2(n − 2) + 1 = 2n − 3 = O(n). Aufgabe 2.4 Wiederholen Sie die Bedeutung der Landausymbole o und O, und beschreiben Sie mit diesen Symbolen die Begriffe Stetigkeit und Differenzierbarkeit einer Funktion f. Lösung: Landau–Symbol O Eine Funktion f : IR → IR heißt von der Ordnung O(g) für x → x0 :, in Zeichen: f (x) = O(g(x)) für x → x0 , falls gilt: der Quotient |f (x)| |g(x)|

bleibt beschränkt für x → x0 .

Landau–Symbol o Eine Funktion f : IR → IR heißt von der Ordnung o(g) für x → x0 , in Zeichen: f (x) = o(g(x)) für x → x0 falls gilt: der Quotient |f (x)| |g(x)|

strebt gegen 0 für x → x0 .

72

2 Lineare Gleichungssysteme

Beispiel: Sei f eine Funktion mit f (0) = 0 . Dann folgt aus der Definition ‚Stetigkeit‘ für eine bei 0 stetige Funktion f unmittelbar f (x) = o(1) für x → 0. Für eine bei 0 differenzierbare Funktion f erhält man f (x) = O(x) für x → 0; denn „f bei 0 differenzierbar“ meint: lim

x→0

f (x) − f (0) existiert und wird f 0 (0) genannt. x−0

Das heißt aber nichts anderes als: lim

x→0

2.2

f (x) = f 0 (0) = const ⇒ f (x) = O(x) für x → 0. x

Einführung in die Numerik linearer Gleichungssysteme

Aufgabe 2.5 Denken Sie noch einmal nach über den Alternativsatz für lineare Gleichungssysteme der Form A~x = ~b,

A (m × n)-Matrix, ~b Vektor des IRm .

Lösung: Alternativsatz r := rg A = rg (A|~b) r = n ⇒ genau eine Lösung r < n ⇒ Lösungsschar, n-r Parameter

r := rg A < rg (A|~b) unlösbar

Aufgabe 2.6 Lösen Sie die folgenden linearen Gleichungssysteme: (a) i)

x1 − x2 = 1 x1 − 1.00001x2 = 0

(b) i) 3.2x1 − 4.7x1 −

ii)

x1 − x2 = 1 x1 − 0.99999x2 = 0

4.7x2 = 6.2 ii) 3.2x1 − 6.9x2 = 9.1 4.7x1 −

4.7x2 = 6.2 6.9x2 = 9.11

2.2 Numerik linearer Gleichungssysteme

73

Lösung: Zu (a) Bei i) und ii) handelt es sich jeweils um zwei fast parallele Geraden. Die Lösungsmengen lauten: i)IL = {100.001; 100.000}

ii)IL = {−99.999; −100.000}.

Man erkennt, dass die Änderung der Lösung um so größer wird, je kleiner die Abweichung von der Parallelität wird. Ein solches Verhalten der Lösung nennt man Instabilität. Wir werden diesen Begriff später sauber definieren. Zu (b) Hier handelt es sich bei i) und ii) um zwei jeweils fast identische Geraden. Schreiben wir die erste Gleichung als ax1 + bx2 = c, so schreibt sich die zweite als: (ka + α)x1 + (kb + β)x2 = kc + γ mit k = 1.468, α = 0.0024, β = 0.0004 und γ = −0.0016 im Fall i) bzw. γ = 0.0084 im Fall ii). Die Änderung der rechten Seite bedeutet hier eine Parallelverschiebung der zweiten Geraden, dabei kann eine kleine Verschiebung eine große Änderung des Schnittpunktes, also der Lösung bewirken. Aber man erkennt hier, dass die Änderung der Lösung um so kleiner wird, je kleiner die Änderung der rechten Seite ist. Ein solches Verhalten nennt man schwache Instabilität. Als Lösung erhält man  im Fall i) ~x =

−1 −2



 ,

im Fall ii) ~x =

3.7 1.2

 .

Aufgabe 2.7 Vorgelegt sei das lineare Gleichungssystem:      0.005 1 x1 0.5 = . 1 1 x2 1 (a) Berechnen Sie die exakte Lösung auf 5 Stellen gerundet. (b) Berechnen Sie die Lösung ohne und mit Spaltenpivotisierung bei zweistelliger Gleitpunktrechnung. (c) Berechnen Sie die Lösung mit Spaltenpivotisierung bei zweistelliger Gleitpunktrechnung für das folgende, zu obigem äquivalente System:

74

2 Lineare Gleichungssysteme 

0.5 0.5 1 200



x1 x2



 =

0.5 100

 .

Lösung: Zu (a) Exakte Lösung: 

0.005 1 0.5 1 1 1



 →



0.005 1 0.5 0 −199 −99

.

Daraus ergibt sich die (gerundete) Lösung: x1 = 100/199 = 0.50251,

x2 = 99/199 = 0.49749.

Zu (b)

Pivot–Wahl Unter Spaltenpivotisierung versteht man eine Zeilenvertauschung so, dass das betragsgrößte Element der Spalte in der Diagonalen steht. Unter totaler Pivotisierung versteht man eine Zeilen– und Spaltenvertauschung so, dass das betragsgrößte Element der Restmatrix in der Diagonalen steht. (pivot (engl., franz.) Zapfen, Angelpunkt) Zweistellige Gleitpunktrechnung ohne Spaltenpivot-Wahl:   0.50E − 2 0.10E + 1 0.50 0.10E + 1 0.10E + 1 0.10E + 1 ↓ 

0.50E − 2 0.10E + 1 0.50 0 −0.20E + 3 −0.99E + 2

 .

Aus der zweiten Zeile ergibt sich x2 = 0.50, was in Einklang mit der exakten Lösung bei zweistelliger Rechnung liegt. Setzen wir diesen Wert nun in die erste Zeile ein und bestimmen x1 : (0.50E − 2)x1 = 0.50 − (0.10E + 1)x2 = 0 ⇒ x1 = 0. Dieser Wert für x1 ist völlig unakzeptabel.

2.2 Numerik linearer Gleichungssysteme

75

Zweistellige Gleitpunktrechnung mit Spaltenpivot–Wahl: Wir vertauschen die zweite mit der ersten Zeile, da 1 > 0.005, und erhalten das folgende System:   0.10E + 1 0.10E + 1 0.10E + 1 0.50E − 2 0.10E + 1 0.50 ↓ 

0.10E + 1 0.10E + 1 0.10E + 1 0 0.10E + 1 0.50

 .

Aus der zweiten Zeile erhalten wir x2 = 0.50, was sich wiederum mit der exakten Lösung gut verträgt. Setzen wir diesen Wert jetzt aber in die erste Zeile ein, so folgt: x1 = 0.50,

x2 = 0.50.

Bei zweistelliger Rechnung ist dies annehmbar. Zu (c) Bei diesem Beispiel haben wir die erste Zeile des obigen Systems mit 200 multipliziert und zur zweiten Zeile gemacht. Wir versuchen unser Glück mit Spaltenpivotwahl und erhalten: Zweistellige Gleitpunktrechnung mit Spalten–Pivot-Wahl:   0.50 0.50 0.50 0.10E + 1 0.20E + 3 0.10E + 3 ↓







0.10E + 1 0.20E + 3 0.10E + 3 0.50 0.50 0.50



0.10E + 1 0.20E + 3 0.10E + 3 0 −0.10E + 3 −0.50E + 2



Daraus ergibt sich als Lösung: x1 = 0,

x2 = 0.50.

Trotz Spaltenpivotisierung erhalten wir wieder eine völlig unakzeptable Lösung. Der Grund für dieses unterschiedliche Verhalten liegt in der unterschiedlichen Größe der Matrixelemente. Abhilfe verschafft hier die totale Pivot-Wahl. Das (auch betraglich) größte Element der gesamten Matrix ist 200 und steht in der Ausgangsmatrix am Platz a22 . Wir tauschen daher die 1. Zeile und 1. Spalte gegen die 2. Zeile und 2. Spalte, so dass die 200 an die Stelle a11 rutscht. Dann erhält man:   0.20E + 3 0.10E + 1 0.10E + 3 0.50 0.50 0.50

76

2 Lineare Gleichungssysteme ↓ 

0.20E + 3 0.10E + 1 0.10E + 3 0 0.50 0.25



Daraus ergibt sich nun bis auf Rundung dieselbe Lösung wie bei (a): (Spaltentausch bei der Berechnung der Lösung beachten!) x1 = 0.50,

2.3

x2 = 0.50.

Gaußsches Eliminationsverfahren

Aufgabe 2.8 Lösen Sie das folgende lineare Gleichungssystem mit Hilfe von Dreieckzerlegung (L–R–Zerlegung) und Spaltenpivotisierung:     2 3 −1 0 x1 20  −6 −5 0 2   x2   −45   2 −5 6 −6   x  =  −3  . 3 4 6 2 −3 x4 58 

Lösung: Ob die L–R–Zerlegung durchführbar ist, beantwortet das folgende hinreichende Kriterium: L–R–Zerlegung Ist A eine reguläre Matrix (det A 6= 0), so gibt es stets eine Permutationsmatrix P , so dass die Matrix P · A in das Produkt einer unteren Dreiecksmatrix L mit 1 in der Hauptdiagonalen und einer oberen Dreiecksmatrix R zerlegt werden kann: P ·A=L·R

Dieser Satz gibt uns den Hinweis darauf, dass zwar bei der Durchführung der Gauß– Elimination manchmal eine 0 in der Hauptdiagonalen auftauchen kann, aber durch Zeilentausch (Multiplikation von links mit einer Permutationsmatrix) bei einer regulären Matrix stets umgangen werden kann. Wir führen jetzt die L–R–Zerlegung der Matrix A zur Übung unter Einbeziehung der Spaltenpivotisierung durch, obwohl bei ganzzahliger Rechnung oder auch bei Einbeziehung von Brüchen die gesamte Durchrechnung völlig exakt ist und daher keine Ergebnisverfälschung durch Rundungsfehler auftreten kann. 1. Schritt:

2.3 Gaußsches Eliminationsverfahren

77

(i) Pivot-Wahl in 1. Spalte: 6 = max(|2|, | − 6|, |2|, |4|). (ii) Zeilentausch 1. mit 2. Zeile: 0 1 P1 =  0 0 

1 0 0 0

0 0 1 0

   0 −6 −5 0 2 −45  0 2 3 −1 0 20  . →   0 2 −5 6 −6 −3  1 4 6 2 −3 58

(iii) Erzeugung von Nullen in 1. Spalte unterhalb der Hauptdiagonalen. Statt der Nullen schreiben wir an die Plätze jeweils den Faktor, mit dem wir die 1. Zeile multiplizieren, um an dieser Stelle die Null zu erzeugen:   −6 −5 0 2 −45 4/3 −1 2/3 5  1/3  1/3 −20/3 6 −16/3 −18  . 2/3 8/3 2 −5/3 28 2. Schritt: (i) Pivot-Wahl: −20/3 . (ii) Zeilentausch 1 0 P2 =  0 0 

0 0 1 0

0 1 0 0

   −6 −5 0 2 −45 0  1/3 −20/3 0 6 −16/3 −18  . →   0 1/3 4/3 −1 2/3 5 1 2/3 8/3 2 −5/3 28

(iii) Erzeugung von Nullen in der 2. Spalte unterhalb der Hauptdiagonalen:   −6 −5 0 2 −45 6 −16/3 −18   1/3 −20/3 .  1/3 1/5 1/5 −2/5 7/5  2/3 2/5 22/5 −19/5 104/5 3. Schritt: (i) Pivot-Wahl: 22/5 . (ii) Zeilentausch 1 0 P3 =  0 0 

0 1 0 0

0 0 0 1

   −6 −5 0 2 −45 0 6 −16/3 −18   1/3 −20/3 0 . →  2/3 1 2/5 22/5 −19/5 104/5  0 1/3 1/5 1/5 −2/5 7/5

78

2 Lineare Gleichungssysteme

(iii) Erzeugung von Nullen in der 3. Spalte unterhalb der Hauptdiagonalen:   −6 −5 0 2 −45 6 −16/3 −18   1/3 −20/3 .  2/3 2/5 22/5 −19/5 104/5  1/3 1/5 −1/22 −5/22 5/11 Damit ist ein sogenanntes gestaffeltes System erreicht, welches äquivalent zum Ausgangssystem ist. Die Gesamt-Permutationsmatrtix, welche alle oben angegebenen Zeilenvertauschungen durchführt, ist das Produkt der einzelnen Permutationsmatrizen:   0 1 0 0 0 0 1 0 P = P3 · P2 · P1 =  . 0 0 0 1 1 0 0 0 Mit dieser Matrix erhalten wir  −6 −5 0 2  2 −5 6 −6  P ·A= , 4 6 2 −3  2 3 −1 0 

für welche wir eine L–R–Zerlegung (links – rechts) oder auch L–U–Zerlegung (lower – upper) angeben können: P · A = L · R = L · U. L ist dabei die Matrix mit Einsen in der Hauptdiagonalen und Nullen oberhalb. Unterhalb der Hauptdiagonalen stehen die oben an Stelle der Nullen eingetragenen Faktoren, allerdings mit dem anderen Vorzeichen. Die Matrix R oder U ist der andere Teil der obigen Matrix.     1 0 0 0 −6 −5 0 2 1 0 0 6 −16/3   −1/3  0 −20/3 L= ,R =  . −2/3 −2/5 1 0 0 0 22/5 −19/5  −1/3 −1/5 1/22 1 0 0 0 −5/22 Gesucht ist immer noch die Lösung des Gleichungssystems A~x = ~b, das sich nun folgendermaßen schreibt: P · A~x = L · R~x = P~b Dieses spalten wir in zwei Systeme mit jeweils einer Dreiecksmatrix auf: R~x = ~y ,

L~y = P~b = (−45, −3, 58, 20)> .

Daraus ergibt sich mit der Zwischenlösung ~y die gesuchte Lösung ~x durch ’Aufrollen’: ~y = (−45, −18, 104/5, 5/11)> ,

~x = (1, 7, 3, −2)> .

2.3 Gaußsches Eliminationsverfahren

79

Aufgabe 2.9 Lösen Sie die folgenden linearen Gleichungssysteme mittels des Gauß–Eliminationsverfahrens:    2 3 −1 0 20  −6 −5 0 2   −45  (a)  ~x =  , 2 −5 6 −6  −3  4 6 2 −3 58 

1 6 (b) 4 3 

   2 3 4 −11 0 −1 2  9  ~x =  . 1 6 −3  7 3 1 0 2

Lösung: Zu (a)    2 3 −1 0 20 2 3 −1 0 20  −6 −5 0 2 −45   0 4 −3 2 15   2 −5 6 −6 −3  →  0 −8 7 −6 −23  4 6 2 −3 58 0 0 4 −3 18     2 3 −1 0 20 2 3 −1 0 20  0 4 −3 2 15   0 4 −3 2 15  → → . 0 0 1 −2 7  0 0 1 −2 7 0 0 4 −3 18 0 0 0 5 −10 Daraus ermittelt man die Lösung durch Aufrollen von unten: 

x4 = −2,

x3 = 3,

x2 = 7,

x1 = 1.

Zu (b) Wir benutzen die kompaktere Schreibweise, an Stelle der Nullen die zur Nullerzeugung benutzten Faktoren dort einzutragen. Daraus gewinnen wir dann sogleich auch die L–R–Zerlegung:     1 2 3 4 −11 1 2 3 4 −11 9  6 0 −1 2  −6 −12 −19 −22 75  →  4 1 6 −3 7 −4 −7 −6 −19 51  3 3 1 0 2 −3 −3 −8 −12 35   1 2 3 4 −11 −22 75   −6 −12 −19 → −4 −7/12 61/12 −74/12 87/12  −3 −1/4 −13/4 −26/4 65/4   1 2 3 4 −11 −22 75   −6 −12 −19 → . −4 −7/12 61/12 −74/12 87/12  −3 −1/4 39/61 −637/61 1274/61 Aus dem letzten Schema ergibt sich nun wieder die Lösung durch Aufrollen. Zugleich können wir daraus aber die L–R–Zerlegung ablesen:     1 0 0 0 1 2 3 4 1 0 0   0 −12 −19 −22  6 A=L·R= · , ~x = (2, −1, −1, −2). 4 7/12 1 0 0 0 61/12 −74/12  3 1/4 −39/61 1 0 0 0 −637/61

80

2 Lineare Gleichungssysteme

Aufgabe 2.10 Gegeben sei das folgende lineare Gleichungssystem: x1 + 2x2 + 3x3 = b1 4x1 + 5x2 + 6x3 = b2 7x1 + 8x2 + 9x3 = b3

b1 , b2 , b3 ∈ IR.

(a) Welche Beziehung muss zwischen b1 , b2 , b3 gelten, damit das System lösbar ist? (b) Berechnen Sie die allgemeine Lösung des Systems mit dem Gaußschen Eliminationsverfahren mittels Spalten-Pivot-Wahl für beliebige Zahlen b1 , b2 , b3 ∈ IR unter Berücksichtigung der in (a) gewonnenen Beziehung.

Lösung: 

   1 2 3 b1 1 2 3 b1 Zu (a)  4 5 6 b2  →  0 −3 −6 b2 − 4b1  7 8 9 b3 0 −6 −12 b3 − 7b1  1 2 3 b1  0 −3 −6 b2 − 4b1  → . 0 0 0 b3 − 7b1 + (−2)(b2 − 4b1 )  = b1 − 2b2 + b3 

Damit ergibt sich Lösbarkeit ⇐⇒ b1 − 2b2 + b3 = 0 . 

   7 8 9 b3 7 8 9 b3 Zu (b)  4 5 6 b2  →  0 3/7 6/7 b2 − 4b3 /7  1 2 3 b1 0 6/7 12/7 b1 − b3 /7  7 8 9 b3  0 6/7 12/7 b1 − b3 /7  → . 0 0 0 b2 − 4b3 /7 − 1/2(b1 − b3 /7) = b2 − b3 /2 − b1 /2 = 0 wg. (a) 

Wähle x3 = λ. Dann folgt: 1 (7b1 − b3 − 12λ), 6    1 8 1 14 56 42 x1 = b3 − 9λ − (7b1 − b3 − 12λ) = b3 − b1 + λ 7 6 7 6 6 6   1 7 28 1 4 = b3 − b1 + 7λ = b3 − b1 + λ. 7 3 3 3 3 x2 =

2.3 Gaußsches Eliminationsverfahren

81

Aufgabe 2.11 Invertieren Sie folgende Matrizen:  −1 1 6 4  2 −2 −11 −7  (b)  . −3 4 19 12  −6 7 36 25

 1 3 2 1  −1 −3 1 4  (a)  , 2 2 2 1 1 −1 0 2 



Lösung: Zu (a) Zur Berechnung der inversen Matrix A−1 von A nennen wir die inverse Matrix X und lösen das folgende lineare Gleichungssystem, wobei E die Einheitsmatrix ist: A · X = E. Auf dieses verallgemeinerte System mit n rechten Seiten wenden wir nun wieder den Gaußschen Algorithmus an. In untenstehenden Schemata wurde lediglich beim Übergang vom 2. zum 3. Schema die 2. mit der 3. Zeile vertauscht wegen einer Null in der Hauptdiagonalen:   1 3 2 1 1 0 0 0  −1 −3 1 4 0 1 0 0   2 2 2 1 0 0 1 0 1 −1 0 2 0 0 0 1 ↓ 1 3 2 1 1  1 0 3 5 1  −2 −4 −2 −1 −2 −1 −4 −2 1 −1 

0 1 0 0

0 0 1 0

 0 0 0 1

0 0 1 0

0 1 0 0

 0 0 0 1

↓ 1 3 2 1 1  −2 −4 −2 −1 −2  1 0 3 5 1 −1 −4 −2 1 −1 

↓ 1 3 2 1 1 0 0  −2 −4 −2 −1 −2 0 1  1 0 3 5 1 1 0 −1 −1 0 2 1 0 −1 

 0 0 0 1

(∗)

↓  1 3 2 −1/2 1/2 0 1/2 −1/2  −2 −4 −2 1/2 −3/2 0 1/2 1/2   1 0 3 −5/2 −3/2 1 5/2 −5/2  −1 −1 0 2 1 0 −1 1 

82

2 Lineare Gleichungssysteme ↓  1 3 −2/3 −1/2 3/2 −2/3 −7/6 7/6  −2 −4 2/3 1/2 −5/2 2/3 13/6 −7/6   1 0 3 −5/2 −3/2 1 5/2 −5/2  −1 −1 0 2 1 0 −1 1 

↓  1 3/4 −2/3 −1/2 −3/8 −1/6 11/24 7/24  −2 −4 2/3 1/2 −5/2 2/3 13/6 −7/6  .  1 0 3 −5/2 −3/2 1 5/2 −5/2  −1 −1 0 2 1 0 −1 1 

Rechts vom Doppeltrennstrich steht nun schon fast die inverse Matrix. Wir müssen nur noch jedes Element durch das links stehende Diagonalelement dividieren, um die gesuchte Inverse zu erhalten:  −3/8 −1/6 11/24 7/24  5/8 −1/6 −13/24 7/24  = . −1/2 1/3 5/6 −5/6  1/2 0 −1/2 1/2 

A−1

Übrigens können Sie hier leicht aus dem mit (∗) gekennzeichneten System die L–R– Zerlegung von P · A ablesen. Unterhalb der Diagonalen links stehen die Einträge von −L, oberhalb dieser Diagonalen steht R, rechts vom Doppelstrich steht Y = R · X. Zu (b) Wir beschreiten hier den alternativen Weg zur Berechnung der Inversen, indem wir die L–R–Zerlegung von A berechnen. Wie in Teil (a) werden wir auch hier nur pivotisieren, um eine 0 in der Hauptdiagonalen zu vermeiden.   −1 1 6 4 −1  2 −2 −11 −7   2  −3 4 19 12  →  −3 −6 7 36 25 −6 

1 0 1 1

6 1 1 0

 4 1 . 0 1

Weil hier das Diagonalelement a22 = 0 ist, nehmen wir einen Zeilentausch vor, indem wir die 2. Zeile mit der 3. Zeile vertauschen, das heißt, insgesamt zerlegen wir die Matrix P · A mit   1 0 0 0 0 0 1 0 P = , 0 1 0 0 0 0 0 1   −1 1 6 4 −1  −3 4 19 12   −3 P ·A= → 2 −2 −11 −7  2 −6 7 36 25 −6 

1 1 0 1

6 1 1 0

 4 0 1 1

2.3 Gaußsches Eliminationsverfahren

83

−1 1 6  −3 1 1 → 2 0 1 −6 −1 −1 

  4 −1 1 0  −3 1 → 1 2 0 1 −6 −1

6 1 1 1

 4 0 . 1 2

Damit lautet unsere L–R–Zerlegung: 1  3 P ·A=L·R= −2 6 

0 0 1 0 0 1 1 −1

  0 −1 0  0 · 0  0 1 0

1 1 0 0

6 1 1 0

 4 0 . 1 2

Die Berechnung von X = A−1 erfolgt nun aus der Gleichung: P · A · X = P · E = L · R · X, die wir in die zwei Gleichungen: L · Y = P · E,

R·X =Y

zerlegen, von denen jede nur eine Dreiecksmatrix enthält. 1  −3 L · Y = P · E =⇒ Y =  2 −1 

0 0 0 1 1 0 1 −1

 0 0 , 0 1

 13 9 3 −1 1  −11 −1 1 1  = · . 5 1 1 −1  2 −1 1 −1 1 

R · X = Y =⇒ X = A−1

Aufgabe 2.12 Von einer Matrix A sei die folgende L–R–Zerlegung (A = L·R) bekannt: 1 0 L= 1 0 

0 0 1 0 1 1 0 −1

 0 0 , 0 1

1 0 R= 0 0 

 0 1 0 1 0 1 . 0 −1 0  0 0 1

Berechnen Sie daraus die 3. und 4. Spalte der inversen Matrix A−1 ohne Rückgriff auf die Matrix A.

84

2 Lineare Gleichungssysteme

Lösung: Es gilt nach Aufgabenstellung: L · R = A. Aus (L · R) · A−1 = E ergibt sich für die 3. Spalte von A−1 :        x1 0 y1 0  x2   0   y2   0  (L · R)   =   bzw. 4. Spalte: (L · R)   =   . x3 1 y3 0 x4 0 y4 1 

Damit bilden wir        u1 0 x1 u1  u2   0   x2   u2  L ·   =   und R ·   =   . u3 1 x3 u3 u4 0 x4 u4 

    1 0 0 0 u1 0 u1 = 0 u2 = 0  0 1 0 0   u2   0   1 1 1 0   u  =  1  =⇒ u = 1 3 3 0 0 −1 1 u4 0 u4 = 1      1 0 1 0 x1 0 x1 = 1 x2 = −1  0 1 0 1   x2   0   0 0 −1 0   x  =  1  =⇒ x = −1 3 3 0 0 0 1 x4 1 x4 = 1 

Analog:     1 0 0 0 v1 0 v1 = 0 v2 = 0  0 1 0 0   v2   0   1 1 1 0   v  =  0  =⇒ v = 0 3 3 0 0 −1 1 v4 1 v4 = 1      1 0 1 0 y1 0 y1 = 0 y2 = −1  0 1 0 1   y2   0   0 0 −1 0   y  =  0  =⇒ y = 0 3 3 0 0 0 1 y4 1 y4 = 1 

Aufgabe 2.13 Von einer Matrix A sei ihre L–R–Zerlegung (P · A = L · R) bekannt: 1  2 L= 3 −4 

0 0 1 0 1 1 2 −2

  0 2 0 0 ,R =  0 0 1 0

 1 −2 1 1 −1 2  . 0 1 1 0 0 −1

2.3 Gaußsches Eliminationsverfahren

85

Berechnen Sie ohne Rückgriff auf A selbst (a) det A, (b) L−1 , R−1 und daraus A−1 . Lösung: zu a) : Die Permutationsmatrix P ist das Produkt einzelner Permutationsmatrizen, die aus der Einheitsmatrix E durch Vertauschen zweier Zeilen entstehen: P = Pn−1 · . . . · P1 . Hierbei können auch einige Permutationsmatrizen die Einheitsmatrizen sein, wenn wir nicht getauscht haben. Je nachdem, wieviel echte Tausche wir vorgenommen haben, ist dann oder det P = −1.

det P = +1 Dann erhält man :

det(P · A) = det P · det A = det(L · ·R) = det L · det R = 1 · (−2) = −2, also folgt abhängig von det P oder det A = −2.

det A = +2

zu b) : L−1 und R−1 lassen sich direkt berechnen: 1 2 3 −4 1 0 0 0

0 0 0 1 0 0 1 0 0 0 1 0 1 1 0 0 0 1 2 −2 1 0 0 0 0 0 0 1 0 0 1 0 0 −2 1 0 0 1 0 −1 −1 1 0 0 1 6 −4 2

0 0 0 1 0 0 0 1

2 0 0 0 1 0 0 0

1 −2 1 1 0 0 0 1 −1 2 0 1 0 0 0 1 1 0 0 1 0 0 0 −1 0 0 0 1 0 0 0 0.5 −0.5 0.5 0 1 0 0 0 1 1 3 0 1 0 0 0 1 1 0 0 1 0 0 0 −1

Dabei steht im linken Tableau unten rechts die Matrix L−1 , im rechten Tableau ebenfalls unten rechts die Matrix R−1 . Geschickterweise berechnet man L−1 von oben nach unten, R−1 aber von unten nach oben. Dann folgt: (P A)

−1

= A−1 P −1 = (LR)

−1

= R−1 L−1 ⇒ A−1 = R−1 L−1 P.

86

2 Lineare Gleichungssysteme

Für das Produkt R−1 · L−1 erhalten wir:

0.5 −0.5 0.5 0 0 1 1 3 0 0 1 1 0 0 0 −1 das heißt dann also:

1 −2 −1 6 1 15 5 −6

0 0 0 1 0 0 −1 1 0 −4 2 1 −1 0.5 0 −12 7 3 −5 3 1 4 −2 −1

 1 −1 0.5 0  15 −12 7 3  = ·P 5 −5 3 1  −6 4 −2 −1 

A−1

Multiplikation mit P von rechts bedeutet dabei eine Vertauschung der Spalten entsprechend der Zeilenvertauschung oben.

2.4

QR–Zerlegung

Aufgabe 2.14 Gegeben sei die Matrix 

 2/3 1/3 2/3 A =  −2/3 2/3 1/3  . a b −2/3

Bestimmen Sie a, b ∈ IR so, dass A orthogonal ist. Lösung: Wir starten mit der Definition und einigen leicht einsehbaren Eigenschaften von orthogonalen Matrizen. Orthogonale Matrix Eine reelle n × n−Matrix heißt orthogonal, wenn gilt A> · A = E

Diese Gleichung bedeutet offensichtlich, wenn man sich die Matrizenmultiplikation ins Gedächtnis zurückruft, dass die Spaltenvektoren ein normiertes Orthogonalsystem bilden.

2.4 QR–Zerlegung

87

Multiplizieren wir die Definitionsgleichung von links mit (A> )−1 , so folgt: A = (A> )−1 . Multiplizieren wir diese Gleichung nun von rechts mit A> , so folgt: A · A> = E. Diese Gleichung sagt aber gerade, dass die Zeilenvektoren von A ebenfalls ein normiertes Orthogonalsystem bilden. Wäre die Determinante einer orthogonalen Matrix gleich 0, so wäre auch das Produkt det A· det A> = 0. Aber det E = 1. Wir fassen diese Tatsachen zusammen: Eigenschaften orthogonaler Matrizen 1. Orthogonale Matrizen sind regulär. 2. Die Zeilen– und Spaltenvektoren bilden jedes für sich ein normiertes Orthogonalsystem.

Das hilft nun bei der Lösung der Aufgabe. Seien ~a1 , ~a2 , ~a3 die Spaltenvektoren von A. Diese sind normiert, also muss gelten k~a1 k = 1 Das ergibt eine Gleichung für a: 4 4 + + a2 = 1 9 9



4 2 2 − − a=0 9 9 3



a=+

1 1 oder a = − . 3 3

Aus ~a1 · ~a3 = 0 folgt 2 2 a= 3 9



a=

1 . 3

2 4 b= 3 9



b=

2 . 3

Aus ~a2 · ~a3 = 0 erhält man ebenso schnell 2 2 2 + − b=0 9 9 3



Aufgabe 2.15 Stellen Sie einen Algorithmus zur Durchführung der QR–Zerlegung einer (N × n)–Matrix (n ≤ N ) auf. Lösung: Unter einer QR–Zerlegung nach Householder einer beliebigen, nicht notwendig quadratischen Matrix A verstehen wir die (multiplikative) Zerlegung A = Q · R in das Produkt einer orthogonalen Matrix Q mit einer Matrix   ˜ R R= , 0

88

2 Lineare Gleichungssysteme

˜ eine quadratische obere Dreiecksmatrix ist. Der Algorithmus sieht dann wie wobei R folgt aus: Algorithmus zur QR–Zerlegung Sei A0 := A. Wir bestimmen A(1) folgendermaßen: 1. Schritt: Falls a2,1 = · · · = an1 = 0, so nächster Schritt. pPn 2 (i) s := i=1 ai1 , (ii) Berechne den Vektor ω ~ (1) gemäß: s   1 |a11 | ω1 = 1+ 2 s 1 ak1 ωk = · σ(a11 ) 2 ω1 · s

 mit

σ(t) =

1 t≥0 −1 t < 0

(iii) Bestimme dann die Transformationsmatrix P (1) aus: P (1) = E − 2~ ω (1) · ω ~ (1)> und berechne damit (beachte (P (1) )−1 = P (1) ): A(1) = P (1) · A Damit sind in A(1) in der ersten Spalte unterhalb a11 alle Elemente 0. 2. Schritt: In derselben Weise behandeln wir die um die erste Zeile und erste Spalte verkleinerte Matrix, erzeugen also unterhalb a22 Nullelemente. Dem dazu berechneten Vektor ω ~ (2) fügen wir oben eine 0 hinzu und stellen die neue Transformationsmatrix P (2) auf: P (2) = E − 2~ ω (2) · ω ~ (2)> Die Matrix A(2) = P (2) · A(1) = P (2) · P (1) · A hat dann bereits in der ersten und zweiten Spalte unterhalb der Diagonalelemente nur 0. So geht das Spiel weiter, bis die Matrix R = P (n) · · · P (1) · A =: Q> · A (also A = Q · R) die verlangte Gestalt hat.

2.4 QR–Zerlegung

89

Der Vollständigkeit halber erwähnen wir den folgenden Existenzsatz der QR–Zerlegung: Existenz der QR–Zerlegung Eine beliebige reelle (N × n)–Matrix (n ≤ N ) lässt sich in ein Produkt der Form   ˜ R A=Q· 0 ˜ Sind die zerlegen mit einer orthogonalen Matrix Q und einer oberen Dreiecksmatrix R. ˜ regulär. Spalten von A linear unabhängig, so ist R Aufgabe 2.16 Beschreiben Sie die Anwendung der QR–Zerlegung auf die Lösung eines überbestimmten linearen Gleichungssystems, also auf ein System der Form: A~x = ~b,

mit

˜ ∈ IRN . A ∈ IRN×n , n ≤ N, x ˜ ∈ IRn , b

Lösung: Das in der Aufgabe vorgestellte System hat eventuell wesentlich mehr Zeilen als Spalten. Betrachten wir deshalb die sog. Residuen ~r = A~x − ~b Diese Residuen stellen ja die Fehler dar, wenn man eine Näherungslösung ~x einsetzt. Die Grundidee zur Lösung besteht darin, den Vektor ~r dieser Residuen in der 2–Norm minimal zu machen: k~rk2 = min ⇔ k~rk22 = min Bilden wir die QR–Zerlegung der Systemmatrix A und multiplizieren wir die Residuengleichung mit der Matrix Q> von links, so entsteht: Q> (A~x − ~b) = Q> QR~x − Q>~b = Q>~r =: ~s. Wir haben damit zwar die Gleichung verändert, bezogen auf unser Minimumproblem aber nicht wesentlich; denn die 2–Norm bleibt unverändert: k~sk22 = ~s> · ~s = ~r> QQ>~r = ~r>~r = k~rk22 Setzen wir d~ := Q>~b, so lautet das transformierte System r11 x1 + · · · + r1n xn .. .. . . rnn xn

−d1 = s1 −dn −dn+1 .. .

= sn = sn+1 .. .

−dN = sN

90

2 Lineare Gleichungssysteme

Nun wird offensichtlich k~rk22 = k~sk22 = min für ~s = 0, also für s1 = · · · = sn = 0, da ja sn+1 = −dn+1 , . . . , sN = −dN ohnehin festliegen, und die Lösung x1 , . . . , xn des Systems R~x = d~0 mit d~0 = (d1 , . . . , dn )> liefert die optimale Lösung. Der Algorithmus läuft nun in der folgenden Form ab:

Überbestimmtes Gleichungssystem Gegeben sei das lineare überbestimmte Gleichungssystem A~x = ~b,

˜ ∈ IRN . mit A ∈ IRN×n , n ≤ N, x ˜ ∈ IRn , b

(i) Bilde die QR–Zerlegung von A. (ii) Löse mit den Matrizen Q und R das Gleichungssystem R~x = Q>~b Diese Lösung ~x ist dann auch die Lösung unserer Minimumaufgabe und stellt daher die bzgl. der 2–Norm beste Lösung des überbestimmten Systems dar. Aufgabe 2.17 Bei der adiabatischen Zustandsänderung eines Gases besteht zwischen der Temperatur T [K] und dem Volumen V [l] der Zusammenhang: T = k · V 1−β . Aus der Messreihe V [l] 1 2 3 4 5 T [K] 405 307 260 231 211 für ein spezielles Gas sollen die Parameter k und β mittels QR–Zerlegung so bestimmt werden, dass das obige Gesetz die Messwerte möglichst gut annähert. Lösung: Eine solche Aufgabe lässt sich wesentlich einfacher lösen, wenn die zu untersuchende Gleichung linear ist. Hier gibt es einen einfachen Kniff, das obige Gesetz zu linearisieren, wir logarithmieren beide Seiten: ln T = ln k + (1 − β) ln V.



Setzen wir α0 = ln k, α1 = 1 − β, so suchen wir α0 und α1 so zu bestimmen, dass diese linearisierte Gleichung p(x) = α0 + α1 x obige Messreihe optimal im Sinne der kleinsten Quadrate ausgleicht.

2.4 QR–Zerlegung

91

Aus obiger Messreihe ergibt sich mit diesem Ansatz ein lineares Gleichungssystem für α0 und α1 , also n = 2, das aber aus N = 5 Gleichungen besteht und daher überbestimmt ist: α0 + 0α1 α0 + 0.6931α1 α0 + 1.0986α1 α0 + 1.3863α1 α0 + 1.6094α1

= = = = =

6.0039 = ln 405 5.7268 = ln 307 5.5607 5.4424 5.3519

Der übliche Weg geht dahin, hieraus die Residuen zu bilden, diese zu quadrieren und aufzusummieren und dann das Minimum dieses Ausdruckes zu bestimmen. Das ist der Weg über das Gaußsche Fehlerquadratprinzip. Wir wählen hier den anderen Weg, das Minimum über die QR–Zerlegung zu erreichen. Die Systemmatrix A und der Vektor ~b lauten: 1 1  A=1 1 1 

 0 0.6391   1.0986  , 1.3863  1.6094

 6.0039  5.7268   ~b =   5.5607  .  5.4424  5.3519 

Unserm Algorithmus von Seite 90 folgend, bilden wir zunächst die QR–Zerlegung der Matrix A. Dazu verwenden wir den Algorithmus von Seite 88. v   u u1 1 u   = 0.85065, ω1 = t 1 + qP 2 5 i=1 1 ωk =

1 1 √ · (+1) = 0.26286, 2 0.85065 5

k = 2, . . . , 5.

Der Vektor ω ~ lautet also: ω ~ = (0.85065, 0.26286, . . . , 0.26286)> . Hieraus bilden wir die Matrix   0.7236 0.2236 0.2236 0.2236 0.2236  0.2236 0.0691 0.0691 0.0691 0.0691    W =ω ~ ·ω ~> =  . . .. ..  ..  . . 0.2236 0.0691 0.0691 0.0691 0.0691 Leicht folgt die Transformationsmatrix −0.4472  −0.4472  P1 = E − 2W =  −0.4472  −0.4472 −0.4472 

−0.4472 0.8618 −0.1382 −0.1382 −0.1382

−0.4472 −0.1382 0.8618 −0.1382 −0.1382

−0.4472 −0.1382 −0.1382 0.8618 −0.1382

 −0.4472 −0.1382   −0.1382  . −0.1382  0.8618

92

2 Lineare Gleichungssysteme

Mit dieser Matrix transformieren wir nun die Matrix A(1) = P1 · A und die rechte Seite d~(1) = P1 · ~b:     −2.2361 −2.1169 −12.5603 0 0.0150    −0.0099      0 0.4445  , d~ = P1~b =  −0.1760  . A(1) = P1 · A =    −0.2943  0 0.7322  0 0.9553 −0.3848 Wie es der Algorithmus versprach, sind wir zu einer Matrix gelangt, die unterhalb des Elementes a11 nur 0 hat. Jetzt führen wir diesen Schritt mit der um die erste Zeile und erste Spalte verkleinerten Matrix, die dann hier nur noch eine Spalte ist, durch. Das Ergebnis sind die Matrix A(2) und der Vektor d~(2) :     −2.2361 −2.1410 −12.5603 0.5155   0 −1.2710       A(2) = P2 · A =  0 0  , d~ = P2~b =  0.0003  .    0 0 −0.0020  0 0 −0.0026 Die abgeteilte (2 × 2)–Matrix und die ersten beiden Komponenten des Vektors d~(2) benutzen wir nun als Daten für das Gleichungssystem, aus dem wir die unbekannten Werte α0 , α1 berechnen. Wir erhalten: α1 = −0.40554,

α0 = 6.0054.

Damit lautet das Endergebnis der Aufgabe: Das lineare Polynom p(x) = α0 + α1 x = 6.0054 − 0.40554x bietet die beste Annäherung an das linearisierte Problem ∗.

2.5

Positiv–definite Matrizen

Aufgabe 2.18 Zeigen Sie, dass die Cholesky–Zerlegung einer symmetrischen Matrix A, das heißt, die Konstruktion einer oberen Dreiecksmatrix C (mit positiven Diagonalelementen) mit A = C > · C genau dann in IR durchführbar ist, wenn A positiv definit ist. Lösung: Positiv definite Matrix Eine n × n–Matrix A heißt positiv definit ⇐⇒ i) A symmetrisch ii) ~x> A~x > 0 ∀~x ∈ IRn , x ˜ 6= 0

2.5 Positiv–definite Matrizen

93

Dass für eine positiv definite Matrix die Cholesky–Zerlegung in IR durchführbar ist, wird bei Einführung des Verfahrens vorgeführt. Wir wollen hier nur den umgekehrten Schluss nachvollziehen, dass eine Matrix, die nach Cholesky in IR zerlegbar ist, auch positiv definit ist. Sei dazu ~x ∈ IRn ein beliebiger Vektor. Dann folgt: ~x> A~x = ~x> C > C~x = (C~x)> (C~x) = |C~x|2 ≥ 0. Gleich Null gilt für den Betrag eines Vektors bekanntlich genau dann, wenn der Vektor selbst bereits der Nullvektor ist, d.h für C~x = 0. Nun ist C nach Konstruktion eine obere Dreiecksmatrix mit positiven Diagonalelementen c11 , . . . , cnn , für ihre Determinate gilt also: det C = c11 · . . . · cnn > 0. Das bedeutet, dass C regulär ist. Nach dem Alternativsatz (vgl. Aufgabe 2.5 ) hat das homogene lineare Gleichungssystem C~x = 0 nur die Lösung ~x = ~0. Also folgt für 0 6= ~x ∈ IRn : ~x> A~x > 0. Das heißt aber gerade, dass A positiv definit ist. Aufgabe 2.19 Stellen Sie notwendige und hinreichende Bedingungen zusammen dafür, dass eine symmetrische (n × n)–Matrix A positiv definit ist. Lösung: Zur Definition ‚positiv definit‘ vgl. Aufgabe 2.18.

Notwendige und hinreichende Bedingungen: A positiv definit

⇐⇒

A positiv definit A positiv definit

⇐⇒ ⇐⇒

A positiv definit

⇐⇒

alle Hauptminoren sind echt größer als Null (Def. s.u.), alle Eigenwerte sind positiv, A lässt sich durch elementare Gaußsche Zeilenumformungen in eine Dreiecksmatrix mit positiven Diagonalelementen überführen, A läßt sich in IR nach Cholesky mit positiven Diagonalelementen zerlegen.

Notwendige Bedingungen: A positiv definit A positiv definit

=⇒ =⇒

A−1 existiert und ist positiv definit, alle Diagonalelemente sind größer als Null.

94

2 Lineare Gleichungssysteme

Die folgenden n Determinanten einer n × n–Matrix A heißen ihre Hauptminoren oder auch Hauptunterdeterminanten oder Hauptabschnittsdeterminanten: 

 a11 · · · a1k  ..  , det  ... . ak1 · · · akk

k = 1, . . . , n.

Der Vollständigkeit halber erklären wir noch den Begriff der negativen Definitheit:

A negativ definit : ⇐⇒ −A positiv definit

Aufgabe  −1 (a)  1 1

2.20 Welche der folgenden Matrizen sind positiv definit?      1 1 1 1 −1 1 1 −1 1 1  , (b)  1 1 1  , (c)  −1 1 1  1 −1 −1 1 1 1 1 1

Lösung: Zu (a) Zwei Hauptdiagonalelemente sind kleiner als Null, also ist nach Aufgabe 2.19 die Matrix nicht positiv definit. Eine Cholesky-Zerlegung würde bereits beim ersten Element scheitern. Zu (b) Wir versuchen die Cholesky-Zerlegung durchzuführen:  √ √ √  1 1 −1 1 1/ 1 −1/ 1  1 1 1  →  −1 0 . −1 1 1 1 

Wir sehen also, dass das Element l22 = 0 ist, die Cholesky-Zerlegung mit positiven Diagonalelementen also nicht durchgeführt werden kann. Darüber hinaus verschwindet der zweite Hauptminor, also die Determinante aus den ersten beiden Zeilen und Spalten:  det

1 1 1 1

 = 0.

Formt man die Matrix A nach Gauß um, so ergibt sich ebenfalls an der Stelle a ˜22 = 0. Zu (c) Die Matrix ist nicht symmetrisch, also auch nicht positiv definit.

2.6 Verfahren von Cholesky

2.6

95

Verfahren von Cholesky

Aufgabe 2.21 Lösen Sie folgende Gleichungssysteme mit Hilfe des Verfahrens von Cholesky: (a)  4 3 2 1

3 6 4 2

2 4 6 3

(b)  1 1  1 1 1

  1 3 2 6 ~x =  , 3 4 4 7 

1 2 3 4 5

1 3 6 10 15

1 4 10 20 35

   1 1 5 0    15  ~x =  0 .  0 35 70 0

Lösung: Die Formeln zur Cholesky–Zerlegung schreiben wir in folgender Form:

Cholesky–Zerlegung >

A = C · C mit C = (cij ) und cij = 0 für i > j v u i−1 X u Für i = 1, . . . , n : cii = taii − c2ki k=1

Für j = i + 1, . . . , n

1 cij = cii

( aij −

i−1 X

) cki ckj

k=1

Die Cholesky–Zerlegung schreiben wir in der folgenden kompakten Form, wobei wir in der k-ten Spalte unterhalb der Diagonalen die Elemente der k-ten Zeile rechts der Diagonalen eintragen, aber mit dem umgekehrten Vorzeichen. Dann tritt die Matrix C oberhalb der eingezeichneten Stufenlinie auf:   2 √3/2 √1 √1/2 √3/2  −3/2  √15/2 √15/3 √15/6 15/2 . Zu (a)   −1 − 15/3  30/3 30/6 0 p √ √ √ −1/2 − 15/6 − 30/6 5/2 10

Damit lautet die Matrix C für die Cholesky-Zerlegung: 

 2 √3/2 √ 1 √1/2  0 15/2 15/3 15/6  . √ √ C= 0 0 30/3 p30/6  0 0 0 5/2

96

2 Lineare Gleichungssysteme

Als Lösung ergibt sich dann durch Aufrollen von unten: x4 = 2, 1  −1  Zu (b)  −1  −1 −1 

1 1 −2 −3 −4

1 2 1 −3 −6

1 3 3 1 −4

x3 = −1,

x2 = 1,

x1 = 0

 1 1 4 −1   6 1 . 4 −1  1 1

Als Lösung folgt hier: x5 = 1,

x4 = −5,

x3 = 10,

x2 = −10,

x1 = 5.

Aufgabe 2.22 Gegeben sei das lineare Gleichungssystem: (2 − k)x1 + 3x2 = 1 3x1 + (2 − k)x2 = 1

(k ∈ IR).

(a) Für welche Werte von k ist die Systemmatrix A positiv definit? (b) Lösen Sie für diese Werte von k das Gleichungssystem mit dem Verfahren von Cholesky. Lösung: Zu (a) Als notwendige Bedingung für positive Definitheit (vgl. Aufgabe 2.19) müssen alle Diagonalelemente größer als Null sein. Das führt auf die Bedingung k < 2. Das meint also, dass für k ≥ 2 die Matrix A auf keinen Fall positiv definit ist. Um endgültige Klarheit zu gewinnen, wenden wir eine der hinreichenden Bedingungen an. Am einfachsten ist wohl die Determinantenbedingung nachzuprüfen. Also rechnen wir die beiden Hauptminoren aus: Der erste Hauptminor ist die Determinante der (1 × 1)–Matrix (2 − k). Wir erhalten also wie schon aus der obigen Bedingung: k < 2. Der zweite Hauptminor ist die Determinante von A selbst: (2 − k)(2 − k) − 9 = (k + 1)(k − 5) > 0. Daraus ergeben sich zwei Möglichkeiten:

2.6 Verfahren von Cholesky

97

i) k + 1 > 0 und k − 5 > 0 ⇒ k > 5. Das widerspricht aber der bereits gefundenen Einschränkung für k. ii) k + 1 < 0 und k − 5 < 0 ⇒ k < −1. Damit kommen wir zu dem Ergebnis: Für k < −1 und nur für diese k ist A positiv definit. Zu (b) Sei nun also k < −1. Die Cholesky–Zerlegung stellen wir schematisch dar:   2−k 3 1 , 3 2−k 1 √ 

√3 2−k

2−k

3 − √2−k

q

(2 − k) −

9 2−k

√1 2−k √ 3 (1− 2−k ) 2−k



 .

(2−k)2 −9

Aus der letzten Zeile gewinnen wir die Lösung für x2 : √ p 3 (1 − 2−k ) 2−k (2 − k)2 − 9 √ · x2 = p . 2−k (2 − k)2 − 9 Eine leichte Umformung führt auf: x2 = −

1 . k−5

Aus der ersten Gleichung folgt: √

2 − k · x1 + √

3 −1 1 · =√ , 2−k k−5 2−k

und das führt auf das Ergebnis: x1 = −

1 . k−5

Aufgabe 2.23 (a) Zeigen Sie mittels des Cholesky–Verfahrens, dass folgende Matrix A nicht positiv definit ist:  4 2 −6 8 −2 0 5  2 5 −5   0 A =  −6 −5 14 −2  8 0 −2 11 −25  −2 5 0 −25 5 

(b) Vervollständigen Sie die Cholesky–Zerlegung A = C > · C im Komplexen. Wie lautet die Matrix C?

98

2 Lineare Gleichungssysteme

Lösung: Von vornherein stellt man durch Hinschauen fest, dass die Matrix A symmetrisch ist. Das ist ja eine erste Bedingung für Positiv–Definitheit. Das Formelsystem der Cholesky–Zerlegung haben wir schon in vorhergehenden Aufgaben vorgestellt. Wir schreiben also lediglich das Matrizenschema für die Cholesky–Zerlegung auf:   4 2 −6 8 −2  2 5 −5 0 5    −6 −5 14 −2 0    8 0 −2 11 −25    5  −2 5 0 −25  .    2 1 −3  4 −1    −1 2 −1 −2  3    3 1 2 4 0 −4 2 −4 5i Hier entsteht also an der Stelle (4,4) eine komplexe Zahl beim Wurzelziehen. Daher bleibt das Verfahren nicht im Reellen, und die Matrix ist nicht positiv definit. Wir können die Zerlegung im Komplexen weiter zu Ende führen. Die letzten beiden Zeilen lauten dann:   −4 2 −4 5i 3i . 1 −3 0 −3i 2 Wir schreiben als Ergebnis die Matrix C der Zerlegung auf:   2 1 −3 4 −1  0 2 −1 −2 3    C =  0 0 2 4 0 .  0 0 0 5i 3i  0 0 0 0 2 Aufgabe 2.24 (a) Lösen Sie folgendes lineare Gleichungssystem mit dem Cholesky– Verfahren im Komplexen:     4 2 2 0 6  2 2 −1 1   −1  ~ A · ~x =  · ~x =  = b. 2 −1 1 2  −1  0 1 2 1 4 (b) Berechnen Sie die Determinante von A. Lösung: Zu (a) Wiederum ist die Matrix A symmetrisch. Die Diagonalelemente sind positiv. Die ersten beiden Hauptminoren oder Hauptunterdeterminanten ergeben sich zu   4 2 A1 = det (4) = 4 > 0, A2 = det = 4 > 0. 2 2

2.6 Verfahren von Cholesky

99

Die Chance für Positiv–Definitheit ist also gegeben. Allerdings wird sich bei Anwendung des Cholesky–Verfahrens zeigen, dass die Durchführung im Reellen nicht gegeben ist. Wir berechnen daher noch flugs den dritten Hauptminor:   4 2 2 A3 = det  2 2 −1  = −16. 2 −1 1 Die dritte ist also schuld, dass die Matrix nicht positiv definit ist. Wir müssen in die komplexe Arithmetik einsteigen. Wir schreiben auch hier nur das Matrizenschema für die Cholesky–Zerlegung einschließlich der Umformung der rechten Seite auf:   4 2 2 0 6 1 −1   2 2 −1   2 −1   2 −1 1  0 1 2 1 4   .  2 1 1 0 3    −1 1 −2  1 −4    −1 2 2i −2i 6i  0 1 −2i 2 −2 Hier entsteht an der Stelle (3,3) eine komplexe Zahl beim Wurzelziehen: 2 l33 = 1 + (−1) · 1 + (−2) · 2 = −4 ⇒ l33 = 2i.

Selbstverständlich hätten wir auch das andere Vorzeichen c33 = −2i wählen können. Das Verfahren bleibt also nicht im Reellen, und die Matrix ist nicht positiv definit. Gehen Sie also nicht über ‘Los’. Wir haben die Zerlegung im Komplexen zu Ende geführt. Die Matrix C der Zerlegung lautet: 2 0 C= 0 0 

 1 1 0 1 −2 1 . 0 2i −2i  0 0 2

Die Lösung gewinnt man durch Aufrollen von unten: x4 = −1, x3 = 2, x2 = 1, x1 = 0. Zu (b) Da die Matrix A nun in das Produkt von zwei Dreiecksmatrizen A = C > ·C zerlegt ist, berechnet sich ihre Determinante sehr leicht als das Produkt der Determinanten der beiden Matrizen C > und C, die natürlich beide gleich sind: det A = det C > · det C = (det C)2 = c211 · c222 · c233 · c244 = −64.

100

2.7

2 Lineare Gleichungssysteme

Vektor– und Matrix–Norm, Kondition

Aufgabe 2.25 Im IRn werde die Norm betrachtet

k~xkp :=

n X

!1/p p

|xi |

für p ∈ [1, ∞]

i=1

und als Spezialfälle:

k~xk1 :=

n X

|xi |,

k~xk2 :=

i=1

n X

!1/2 |xi |2

,

k~xk∞ := max |xi |.

i=1

1≤i≤n

(a) Für die Vektoren ~x = (1, 2, 3, 4), ~y = (−2, −6, 18, 5) berechne man k~xkp ,

k~y kp ,

k~x + ~y kp

k~x − ~y kp für p = 1, 2, ∞.

(b) Wie sehen im IR2 die Einheitskugeln {~x ∈ IR2 : k˜ xkp ≤ 1} aus für p = 1, 2, ∞? Lösung: Wiederholen wir kurz: Norm Ein Vektorraum V heißt normiert, wenn jedem Vektor ~x eine nicht–negative reelle Zahl k~xk zugeordnet ist mit den Eigenschaften: i) k~xk = 0 ⇐⇒ ~x = 0 ii) kλ~xk = |λ| · k~xk iii) k~x + ~y k ≤ k~xk + k~y k

i) bezeichnet dabei die sogenannte Definitheit der Norm, ii) und iii) stellen die Verträglichkeit der Normaxiome mit den Vektorraum–Verknüpfungen her. Zu (a) Durch sehr leichte Rechnung erhält man: k~xk1 = 10, k~y k1 = 31, k~x + ~y k1 = 35,

k~xk2 = k~y k2 =





30,

k~xk∞ = 4,

389, k~y k∞ = 18, √ k~x + ~y k2 = 539, k~x + ~y k∞ = 21,

2.7 Vektor– und Matrix–Norm, Kondition y 6

p=1

p=2

1 @ @ @ @

@ @ 1

101 y 6 1

x

y p=∞ 6 1 1

x

1

x

Abbildung 2.1: Einheitskreise p = 1, p = 2, p = ∞

k~x − ~y k1 = 27,

k~x − ~y k2 =



299,

k~x − ~y k∞ = 15.

Zu (b) Im IR2 gilt für einen Vektor ~x = (x1 , x2 ) : k~xk1 = 1 ⇐⇒ |x1 | + |x2 | = 1. Im ersten Quadranten bedeutet dies die Geradengleichung: x1 + x2 = 1. Analog erhält man in den anderen Quadranten Geradengleichungen. Alles zusammengefügt, ergibt sich eine Raute als „Einheitskreis“ im IR2 . Für p = 2, also die euklidische Norm, ergibt sich der übliche Einheitskreis, und für p = ∞ erhalten wir das Einheitsquadrat. In Abbildung 2.1 werden diese „Kreise“ veranschaulicht. Aufgabe 2.26 Betrachten Sie die in Aufgabe 2.25 vorgestellten Vektornormen k~xk1 ,

k~xk2 ,

k~xk∞ .

Stellen Sie tabellarisch zusammen, welche Matrixnorm mit welcher dieser Vektornormen verträglich ist. Lösung: Unter einer Matrixnorm für eine quadratische (n × n)–Matrix A verstehen wir eine Vorschrift, die jeder Matrix A eine reelle Zahl kAk so zuordnet, dass für beliebige (n × n)– Matrizen B und beliebige reelle Zahlen λ gilt: Matrixnorm i) ii) iii) iv) v)

kAk ≥ 0 kAk = 0 ⇐⇒ A = Nullmatrix kλ · Ak = |λ| · kAk kA + Bk ≤ kAk + kBk kA · Bk ≤ kAk · kBk

102

2 Lineare Gleichungssysteme

Verträglichkeit Matrixnorm – Vektornorm Eine Matrixnorm kAkM heißt verträglich mit einer Vektornorm k~xkV , wenn gilt: kA · ~xk ≤ kAkM · k~xkV

Wir definieren die folgenden

Matrixnormen Pn kAk∞ := max1≤k≤n { i=1 |aki |} Pn Spaltensummennorm: kAk1 := max1≤i≤n { k=1 |aki |} p Spektralnorm: kAk2 := ρ(A> A) Zeilensummennorm:

Mit ρ(A> A) wird dabei der betragsgrößte Eigenwert der Matrix A> A bezeichnet. Der Vollständigkeit halber sei hier noch ein Begriff genannt, der zwar in engem Zusammenhang mit der Spektralnorm steht, wie der zweite Satz im folgenden Kasten zeigt, aber nicht mit ihr verwechselt werden darf:

Spektralradius Der Spektralradius %(A) einer Matrix A ist das Maximum der Beträge der Eigenwerte: %(A) := max |λk (A)| k=1,...,n

Für eine symmetrische Matrix A ist der Spektralradius gleich der Spektralnorm: kAk2 = %(A)

Die Indizierung der Matrixnormen ist so vorgenommen, dass miteinander verträgliche Normen die gleichen Indizes haben. Das bedeutet, dass Vektor– und Matrixnormen auf folgende Weise einander zugeordnet sind:

2.7 Vektor– und Matrix–Norm, Kondition Matrixnorm Zeilensummennorm Spaltensummennorm Spektralnorm

103

verträglich mit der Vektornorm Maximumnorm Betragssummennorm euklidische Norm

Aufgabe 2.27 Berechnen Sie die Kondition cond1 (A) bzw. cond∞ (A) folgender Matrizen:     1 1/2 1/3 1/4 −14 12 −2  1/2 1/3 1/4 1/5  2 0 −2 , (b)  (a)  . 1/3 1/4 1/5 1/6  2 −4 2 1/4 1/5 1/6 1/7 Lösung: Die Konditionszahl einer quadratischen, regulären Matrix A ist folgendermaßen definiert: Kondition condM (A) := kAkM · kA−1 kM Dabei ist k...kM eine beliebige Matrixnorm. Zu (a) 

 −14 12 −2 A =  2 0 −2  , 2 −4 2

A−1

  1  −1 −2 −3  = · −1 −3 −4 . 4 −1 −4 −3

Damit folgt dann sofort: kAk∞ = 28, kA−1 k∞ = 8/4 =⇒ cond∞ (A) = 224/4, kAk1 = 18, kA−1 k1 = 10/4 =⇒ cond1 (A) = 180/4. Zu (b) Die Matrix ist eine sogenannte Hilbert–Matrix. Diese sind symmetrtisch, positiv definit, ihre Inverse hat ganzzahlige Elemente. Trotzdem sind sie bekannt für ihre schlechte Kondition. Nennen wir die in (b) vorgegebene Matrix H4 , so folgt: 16  −120 = 240 −140 

H4−1

 −120 240 −140 1200 −2700 1680  . −2700 6480 −4200  1680 −4200 2800

Damit erhalten wir: kH4 k∞ = 25/12, kH4−1 k∞ = 13 620 =⇒ cond∞ (H4 ) = 28 375,

104

2 Lineare Gleichungssysteme kH4 k1 = 25/12, kH4−1 k1 = 13 620 =⇒ cond1 (H4 ) = 28 375.

In Büchern findet man die folgenden Angaben über die Kondition bezüglich der Spektralnorm der Hilbertmatrizen : N 3 4 5 10 cond2 (HN ) 5.2 · 102 1.6 · 104 4.8 · 105 1.6 · 1013 Aufgabe 2.28 Gegeben sei die folgende Matrix  A=

3.0003 −3 3 −3

 .

(a) Berechnen Sie die Konditionen cond1 (A) und cond∞ (A). (b) Wieviel richtige Mantissenstellen können Sie in der Lösung ~x des linearen Gleichungssystems A~x = ~b bei g-stelliger Gleitkommarechnung erwarten, wenn also für den relativen Fehler gilt: k∆A|| k∆~bk ≈ ≈ 5 · 10−g ? kAk k~bk Lösung: Zu (a) Leichte Rechnung zeigt: kAk∞ = kAk1 = 6.000 3,

det A = −0.000 9.

Damit berechnet sich die inverse Matrix zu:     −1 −3 3 3 333.¯3 −3 333.¯3 A−1 = = . 3 333.¯3 −3 333.¯6 0.000 9 −3 3.000 3 Daraus folgt: kA−1 k∞ = kA−1 k1 = 6 667. So ergibt sich für die Kondition: cond∞ (A) = kAk∞ · kA−1 k∞ = kAk1 · kA−1 k1 = 40 004.000 1. Zu (b) Der folgende Satz macht eine Aussage über den relativen Fehler der Lösung, wenn ein gestörtes Problem vorliegt.

2.8 Der Satz von Prager und Oettli

105

Fehlerabschätzung bei gestörten Problemen Bei Vorliegen eines gestörten Problems (A + ∆ A)(~x + ∆ ~x) = ~b + ∆ ~b gilt für den relativen Fehler, falls k∆Ak · kA−1 k < 1: k∆~xk cond(A) ≤ · k~xk 1 − cond(A) k∆Ak kAk

k∆Ak k∆~bk + kAk k~bk

!

An der Formel erkennt man deutlich den Einfluss der Konditionszahl. Mit der Voraussetzung für die relativen Fehler k∆Ak/kAk, k∆~bk/k~bk folgt: k∆~xk 4 · 104 ≤ · 2 · 5 · 10−g k~xk 1 − 4 · 104 · 5 · 10−g 4 = · 10−g+5 . 1 − 2 · 10−g+5 Falls nun g sehr viel größer als 5 ist, also z. B. bei 16–stelliger Gleitkommarechnung g = 16, so ist der Nenner ≈ 1, also folgt: k∆~xk ≤ 4 · 10−g+5 k~xk = 4 · 10−(g−5) . Nach derselben Überlegung wiE oben, dass bei g–stelliger Rechnung der relative Fehler ≤ 5 · 10−g ist, schließt man hier, dass nur ca. g − 5 richtige Mantissenstellen zu erwarten sind.

2.8

Der Satz von Prager und Oettli

Aufgabe 2.29 *Gegeben seien       2 −1 ~ 1 0.95 A= ,b = und ~x = . 1 1 2 1.05 Mit welcher relativen Genauigkeit müssen die Daten A und ~b gegeben sein, damit ~x als vernünftige Lösung von A~x = ~b angesehen werden kann? Dabei werde vorausgesetzt, dass alle Komponenten von A und ~b mit derselben relativen Genauigkeit  > 0 gegeben sind.

106

2 Lineare Gleichungssysteme

Satz von Prager und Oettli Seien eine Matrix ∆A und ein Vektor ∆~b gegeben, deren sämtliche Koeffizienten nicht negativ sind, in Zeichen ∆ A ≥ 0, ∆~b ≥ 0. Bezeichnen wir das Residuum eines Vektors ~x0 bezogen auf das Gleichungssystem A~x = ~b mit r(~x0 ) := ~b − A~x0 und schreiben wir |~x| bzw. |A|, wenn wir den Vektor bzw. die Matrix, gebildet aus den Absolutbeträgen ihrer Komponenten, meinen. Dann sind die folgenden beiden Aussagen äqivalent: (i) ⇐⇒

˜)| ≤ ∆A · |~x ˜| + ∆~b |r(~x

˜ ˜ (ii) ∃A˜ : |A˜ − A| ≤ ∆A, ∃~b : |~b − ~b| ≤ ∆~b ˜ = ~˜b =⇒ A˜ · ~x

Lösung: Den Satz von Prager und Oettli findet man auf Seite 106. Dieser Satz sagt also, dass man aus der Größe des Residuums |r(~x0 )| auf die Brauchbarkeit des Vektors ~x0 als Lösung des Gleichungssystems schließen kann. Unser in der Aufgabe vorgegebenes Gleichungssystem hat die exakte Lösung ~x0 = (1, 1)> . Wir weisen (i) nach, um auf (ii) zu schließen und damit festzustellen, ob die vorgegebene Näherungslösung als Lösung akzeptabel ist. Besitzen alle Komponenten von A und ~b dieselbe relative Genauigkeit ε (z. B. infolge gleichartiger Messungen), so gilt: ∆A = ε · |A|,

∆~b = ε · |~b|.

Wenn wir nun das ε so klein wählen können, dass ˜| ≤ ε · (|A| · |~x ˜| + |~b|), |~b − A~x

(?)

so folgt daraus (i), denn: ˜)| = |~b − A · ~x ˜| |r(~x ˜| + |~b|) ≤ ε · (|A| · |~x ˜| + ε · |~b| = ε · |A| · |~x ˜| + ∆~b. = ∆A · |~x Für die linke Seite von (?) gilt:        0.95 0.15 ˜| = 1 − 2 −1 |~b − A~x = . 2 1 1 1.05 0

2.8 Der Satz von Prager und Oettli

107

Auf der rechten Seite von (?) ergibt sich:         ˜| + |~b| = 2 −1 · 0.95 + 1 = 3.95 . |A| · |~x 1 1 1.05 2 4 Aus der ersten Zeile ist nun ε bestimmbar ( die 2. Zeile ist wegen der 0 nicht verwertbar): 0.15 ≤ ε · 3.95 =⇒ ε ≥ 0.15/3.95 = 0.038. Das bedeutet: Falls die relative Genauigkeit ε nicht kleiner ist als 4 %, so wird ~x = (0.95, 1.05)> als vernünftige Lösung von A~x = ~b akzeptiert. Aufgabe 2.30 Welche der Näherungslösungen ~x = (1.1 , 0.9)> , ~y = (1.5 , 0.6)> ~z = (0 , 2)> wird man für das Gleichungssystem      1 2 x1 3 = 3 7 x2 10 auf Grund des Satzes von Prager und Oettli als Lösungen akzeptieren, wenn die relativen Fehler der Daten (a) 2.5 % , (b) 10 % , (c) 20 % betragen? Lösung: Wie in Aufgabe 2.29 dargelegt, sind nach Prager und Oettli die folgenden Aussagen äquivalent: ˜)| ≤ ∆A · |~x ˜| + ∆~b mit r(~x ˜) := ~b − A · ~x ˜, (i) |r(~x ˜ = ~˜b mit ‚benachbarten‘ A˜ und ~˜b. (ii) A˜ · ~x Sind alle Komponenten mit gleicher relativer Genauigkeit ε > 0 gegeben, so gilt also: ∆A = ε · |A|,

∆~b = ε · |~b|.

Wir weisen (i) nach, um auf (ii) zu schließen: ˜)| = |~b − A · ~x ˜| |r(~x        3 1 2 1.1 0.1 = − = , 10 3 7 0.9 0.4 ˜| + ∆~b = ε · (|A| · |~x ˜| + |~b|) ∆A · |~x         1 2 1.1 3 5.9 = ε · + =ε· . 3 7 0.9 10 19.6

108

2 Lineare Gleichungssysteme

Für welche ε ist (i) erfüllt? Wir erhalten zwei Ungleichungen: 0.1 ≤ ε · 5.9 0.4 ≤ ε · 19.6 Aus der ersten Zeile folgt ε = 0.016949, aus der zweiten Zeile folgt ε = 0.020408. Für ε = 0.020408, d.h. also ε = 2% ist (i) erfüllt. Damit ist (i) auch für ε = 2.5%, 10%, 20% ˜ bei (a), (b) und (c) als Lösung akzeptiert. erfüllt. Daher wird ~x Vielleicht führt der geneigte Leser eine analoge Untersuchung für die beiden weiteren Näherungslösungen allein durch. Aufgabe 2.31 Gegeben sei das lineare Gleichungssystem      2 −3 x1 −5 = . −4 7 x2 13 Die gegebenen Daten, also die Matrixelemente und die Komponenten der rechten Seite, seien alle mit der gleichen relativen Genauigkeit ε = 10% gegeben. (a) Zeigen Sie, dass dann die Näherung ~y = (2.5; 2.5)> nach dem Satz von Prager und Oettli nicht als Lösung akzeptiert werden kann. (b) Welcher relative Fehler in den Daten muss zugelassen werden, damit ~y als Lösung hingenommen werden kann? Lösung: Zu (a) Der Satz von Prager und Oettli sagt aus, dass folgende zwei Bedingungen äquivalent sind: ˜)| ≤ ∆A · |~x ˜| + ∆~b (i) |r(~x ⇐⇒

˜ ˜ (ii) ∃A˜ : |A˜ − A| ≤ ∆A, ∃~b : |~b − ~b| ≤ ∆~b ˜ = ~˜b. =⇒ A˜ · ~x Wir zeigen nun, dass (i) nicht erfüllt ist für ∆A = ε|A|, ∆~b = ε|~b|, ε = 0.10. Es gilt: r(~y ) = ~b − A~y      −5 2 −3 2.5 = − 13 −4 7 2.5   −2.5 = , 5.5   2.5 |r(~y )| = . 5.5

2.9 Gesamt– und Einzelschrittverfahren

109

Die andere Seite der zu widerlegenden Ungleichung ergibt: ∆A|~y | + ∆~b = ε(|A| · |~y | + |~b|)      2 3 2.5 5 = ε + 4 7 2.5 13   17.5 = ε . 40.5 Bei einer vorgegebenen Genauigkeit von 10 %, also ε = 0.10 ist daher (i) nicht erfüllt, denn       17.5 1.75 2.5 0.1 = 6≥ . 40.5 4.05 5.5 Wenn wir also nur einen relativen Fehler der Daten von 10 % zulassen, so kann ~y nicht als Lösung akzeptiert werden. Zu (b) Es ist jetzt zu ermitteln, für welche ε (i) erfüllt ist, also: 

2.5 5.5



 ≤ε

17.5 40.5

 .

Das führt zu zwei Ungleichungen in den Komponenten: ε ≥ 1/7 = 0.1429 → 14.3%, ε ≥ 11/81 = 0.1358 → 13.6%. Beide Ungleichungen und damit auch (i) sind erfüllt, wenn wir einen relativen Fehler in den Daten von 14.3 % zulassen. Damit wäre dann auch (ii) erfüllt, und ~y könnte als Lösung des Gleichungssystems hingenommen werden.

2.9

Gesamt– und Einzelschrittverfahren

Aufgabe 2.32 Überlegen Sie bitte, welche der folgenden Matrizen zerfallend ist.  4 2 −2 0  2 5 0 −3  A= , −2 0 6 −3  0 −3 −3 −7 

110

2 Lineare Gleichungssysteme

1 0  0   0  0 B= 1   2  0  0 0 

0 2 2 0 0 0 0 0 0 0

0 0 0 1 2 0 0 0 3 0 0 0 0 4 −4 0 0 −4 5 0 0 0 0 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 −4

2 0 0 0 0 0 7 0 0 2

0 0 0 0 0 0 0 8 5 0

0 0 0 0  0 0   0 0  0 0 . 0 −4   0 2   5 0  9 0 0 10 

Lösung: Die Matrix A ist symmetrisch, aber nicht positiv definit, weil eine negative Zahl in der Hauptdiagonalen steht. Sie hat aber eine weitere Eigenschaft, die im Zusammenhang mit Iterationsverfahren von Bedeutung ist: Sie ist nichtzerfallend oder irreduzibel, wie man vornehm sagt.

Zerfallende (reduzible) Matrix Eine quadratische Matrix A heißt zerfallend oder reduzibel, wenn man sie durch Vertauschen von Zeilen und gleichnamigen Spalten überführen kann in eine Matrix der Gestalt:   e = A1 A2 , A1 , A3 quadr. Teilmatrizen A 0 A3

Interessanterweise gibt es eine einfache graphentheoretische Methode, um diese Eigenschaft nachzuweisen. Dazu wollen wir voraussetzen, dass die Matrix symmetrisch ist. Die Methode ist auch für nichtsymmetrische Matrizen durchführbar. Dafür schaue man in die Literatur. Wichtig sind natürlich nur die Matrixelemente, die von 0 verschieden sind. Betrachten wir die Matrix A. Wir numerieren die Spalten von 1 bis 4 und zeichnen diese vier Nummern auf ein Blatt. Dann gehen wir zeilenweise vor. Wir starten beim Element a11 , egal ob es 0 ist oder nicht, und ziehen eine Verbindungslinie von Nummer 1 zu allen Nummern 2 bis 4, wenn das Element a12 bis a14 von 0 verschieden ist, sonst ziehen wir keine Verbindung. Dann gehen wir zum Diagonalelement der 2. Zeile und betrachten die Elemente a23 und a24 . Sind sie ungleich 0, so ziehen wir eine Verbindungslinie von der Nummer 2 zur jeweiligen Nummer. So geht das Spielchen alle Zeilen lang. Wegen der Symmetrie brauchen wir nur die Elemente oberhalb der Diagonalen zu untersuchen. Anschließend wird das entstandene Bild daraufhin betrachtet, ob man von jedem Punkt des Graphen jeden anderen Punkt durch eine Verbindungslinie erreichen kann. Ist dies möglich, so ist die Matrix unzerlegbar. Besteht aber der Graph aus mehreren Teilgraphen, die nicht miteinander verbunden sind, so ist die Matrix zerlegbar. Mathematisch fragt

2.9 Gesamt– und Einzelschrittverfahren

111

man nach der Zahl der Zusammenhangskomponenten. Gibt es nur eine, so ist die Matrix unzerlegbar, besteht der Graph aus mehreren solchen Komponenten, so ist A reduzibel. Angewendet auf unsere Matrix A, heißt das: Aus der ersten Zeile entnehmen wir, dass man Punkt 1 mit Punkt 2 und Punkt 3, nicht aber mit Punkt 4 zu verbinden hat. Die zweite Zeile sagt uns, dass man Punkt 2 nur mit Punkt 4 verbinden muss, schließlich ergibt sich aus Zeile 3 die Verbindung von Punkt 3 mit Punkt 4. Wir haben das in nebenstehendem Bildchen angedeutet. Die Matrix A zerfällt also nicht.

Die Matrix B untersuchen wir nach der gleichen Methode. Das rechts stehende Bild zeigt uns deutlich, dass diese Matrix zerfällt. Der Graph besteht ja aus vier voneinander getrennten Teilen. (Man verzeihe dem Autor die kleinen Albernheiten).

2 b

b3 b 1

b 4

6

e e e 7 1

8 9 e e e e e4 2 @ 10 e3 5@e

Nun erhebt sich die Frage, wenn wir schon das Zerfallen der Matrix B herausgefunden haben, wie dann durch Zeilen– und Spaltentausch das Zerfallen sichtbar werden kann. Dazu betrachten wir obiges Bild genauer. Wenn wir die Zeilen und Spalten 2,3 und 4,5 und 8,9 nach vorne bringen und erst anschließend die Zeilen und Spalten 1,6,7,10 anordnen, dann ergibt sich die folgende Matrix. Wir haben schon die Striche eingefügt, um so das Zerfallen deutlicher zu machen:

112

2 Lineare Gleichungssysteme

3 2  0   0   e =0 B 0   0  0  0 0 

2 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0  0 5 −4 0 0 0 0 0 0    0 −4 4 0 0 0 0 0 0   0 0 0 1 1 2 0 0 0  0 0 0 1 6 0 −4 0 0   0 0 0 2 0 7 2 0 0   0 0 0 0 −4 2 10 0 0   0 0 0 0 0 0 0 9 5 0 0 0 0 0 0 0 5 8 

Aufgabe 2.33 Stellen Sie aus der Literatur notwendige und hinreichende Bedingungen dafür zusammen, dass das Gesamtschritt– und das Einzelschrittverfahren konvergieren. Lösung: Wir wollen das folgende lineare Gleichungssystem mit einer quadratischen Koeffizientenmatrix A~x = ~b mit Hilfe des Gesamtschritt– und des Einzelschrittverfahrens lösen. Zur Herleitung der Iterationsvorschrift zerlegt man ja die Matrix A = L+D+R in eine untere Dreiecksmatrix L, die nur den linken Teil von A unterhalb der Diagonalen enthält, eine Diagonalmatrix D und eine entsprechend gebaute obere Dreiecksmatrix. Die Iterationsvorschrift lautet dann:

Gesamtschrittverfahren D~x(k+1) = −(L + R)~x(k) + ~b Einzelschrittverfahren (D + L)~x(k+1) = −R~x(k) + ~b

2.9 Gesamt– und Einzelschrittverfahren

113

Damit die Verfahren überhaupt durchführbar sind, muss natürlich beim GSV die Matrix D invertierbar sein, beim ESV die Matrix D + L invertierbar sein. Für beides ist notwendig und hinreichend, dass die Diagonalelemente sämtlich ungleich Null sind. Das sagt noch gar nichts über die Güte der Verfahren. Für die Konvergenzuntersuchung deuten wir beide Verfahren als Fixpunktaufgaben, die wir iterativ lösen: ~x(0) gegeben, ~x(k+1) = M · ~x(k) + ~s,

k = 1, 2, . . . ,

(∗)

wobei die Iterationsmatrizen folgendermaßen aussehen: GSV :

M := −D−1 (L + R),

~s = D−1~b,

ESV :

M := −(L + D)−1 R,

~s = (L + D)−1~b.

Mit Hilfe der Jordanschen Normalform folgert man dann das notwendige und hinreichende Konvergenzkriterium:

Notwendiges und hinreichendes Konvergenzkriterium Das Iterationsverfahren (∗) ist konvergent für jeden beliebigen Startvektor ~x(0) genau dann, wenn der Spektralradius der Iterationsmatrix M kleiner als 1 ist: %(M ) < 1. Lediglich hinreichende Kriterien gibt es mehrere. Zuallererst seien das Zeilensummen– und das Spaltensummenkriterium genannt:

Starkes Zeilensummenkriterium n X |aik | < |aii |, 1 ≤ i ≤ n k=1

k6=i

In Worten ausgedrückt, bedeutet das, die Matrix A möchte bitteschön in jeder Zeile ein Diagonalelement haben, dessen Betrag größer ist als die Summe der anderen Zeilenelemente, von denen man auch den Betrag zu nehmen hat. Wegen des echten Kleinerzeichens in der Definition spricht man auch von einer stark diagonaldominanten Matrix . Ersetzt man überall das Wort ‘Zeile’ durch ‘Spalte’, so erhält man das starke Spaltensummenkriterium.

114

2 Lineare Gleichungssysteme

Wenn man nun glaubt, das schwache Zeilensummenkriterium unterscheidet sich lediglich dadurch, dass man ein ≤ statt < zulässt, so hat man sich geschnitten. Diese Abschwächung hat leider wenig Bedeutung, aus ihr kann man nicht viel folgern. Man muss ein klitzeklein wenig mehr verlangen: Schwaches Zeilensummenkriterium n X |aik | ≤ |aii |, 1 ≤ i ≤ n, k=1

k6=i

wobei in mindestens einer Zeile das echte Kleinerzeichen gelten muss. Dieses bisschen bringt’s, wie der folgende Satz zeigt: Hinreichendes Konvergenzkriterium A erfülle das starke Zeilensummenkriterium (oder das starke Spaltensummenkriterium). Dann sind das Gesamtschritt– und das Einzelschrittverfahren konvergent. A erfülle das schwache Zeilensummenkriterium (oder das schwache Spaltensummenkriterium). Darüber hinaus sei A nicht zerfallend. Dann sind das Gesamtschritt– und das Einzelschrittverfahren konvergent. Der folgende Sonderfall macht eine Aussage für das Einzelschrittverfahren: A symmetrisch und positiv definit =⇒ ESV ist konvergent

Zum Schluss zitieren wir noch einen Satz, der beide Verfahren miteinander vergleicht: Zusammenhang GSV – ESV TGSV sei die Iterationsmatrix des Gesamtschrittverfahrens, TESV die Iterationsmatrix des Einzelschrittverfahrens, es gelte TGSV ≥ 0. Dann gilt: aus 0 < %(TGSV ) < 1 folgt 0 < %(TESV ) < %(TGSV ) < 1 aus %(TGSV ) > 1 folgt 1 < %(TGSV ) < %(TESV ) Dies bedeutet also: Wenn das GSV konvergiert, so konvergiert auch das ESV. Wenn das GSV nicht konvergiert, dann divergiert auch das ESV. Wir werden in Aufgabe 2.34 Beispiele kennenlernen, in denen das GSV konvergiert, das ESV aber nicht, was nach einem Gegenbeispiel zu obiger Aussage aussieht. Bei genauem

2.9 Gesamt– und Einzelschrittverfahren

115

Hinsehen entdeckt man aber, dass bei dem Beispiel die Voraussetzung TGSV ≥ 0 verletzt ist. Nur für Matrizen mit dieser Einschränkung galt aber unsere Aussage. Aufgabe 2.34 Für beliebige α, β ∈ IR mit α 6= 0 sei die Matrix A gegeben:   1 − α1 β A=α 1 1 − αβ  . α 1 1 (a) Berechnen Sie mit der Zerlegung A = L + D + R jeweils die Iterationsmatrizen des Gesamt– und des Einzelschrittverfahrens. (b) Bestimmen Sie mit Hilfe des Spektralradius, für welche Werte von α und β das Gesamt– und das Einzelschrittverfahren konvergieren. (c) Lösen Sie mit α = 1/2, β = 1 und der Hilfe des Gesamtschrittverfahrens das Gleichungssytem Ax = (1, 1, 1)>

Startvektor x(0) = (1, 1, 1)> .

Lösung: Zu (a) Die Zerlegung A = L + D + R sieht folgendermaßen aus:     0 0 0 0 −1/α β L + D + R =  α 0 0  + E +  0 0 1 − αβ  . α 1 0 0 0 0 Weil die Diagonalmatrix D die Einheitsmatrix E ist, bleibt uns die Berechnung der Inversen erspart. Damit erhalten wir sogleich die Iterationsmatrix TGSV für das Gesamtschrittverfahren:   0 −1/α β TGSV = −D−1 (L + R) = −  α 0 1 − αβ  . α 1 0 Die Iterationsmatrix TESV für das Einzelschrittverfahren lautet ja:  −1   1 0 0 0 −1/α β TESV = −(L + D)−1 R = −  α 1 0   0 0 1 − αβ  . α 1 1 0 0 0 Die inverse Matrix ergibt sich  1 0 0 α 1 0 α 1 1

mit dem Gauß–Verfahren:   1 0 0 1 0 0 1 0 1 0  →  0 1 0 −α 0 0 1 0 1 1 −α  1 0 0 1 →  0 1 0 −α 0 0 1 0

 0 0 1 0 0 1  0 0 1 0 . −1 1

116

2 Lineare Gleichungssysteme

Damit erhalten wir die gesuchte Iterationsmatrix TESV :    1 0 0 0 −1/α β TESV = −  −α 1 0   0 0 1 − αβ  0 −1 1 0 0 0   0 1/α −β =  0 −1 2αβ − 1  . 0 0 1 − αβ Zu (b) Wir hatten bereits (vgl. Seite 113) die folgende notwendige und hinreichende Bedingung für die Konvergenz der Iterationsverfahren, wobei der Spektralradius %(T ) der Matrix T , also der betraglich größte Eigenwert von T , eine entscheidende Rolle spielt, angeführt: %(T ) = max |λi | < 1. 1≤i≤n

Die Iterationsmatrizen haben wir in (a) bereitgestellt. Von der Matrix TGSV sind die Eigenwerte nicht so ohne weiteres zu sehen. Also müssen wir ein klein wenig rechnen. Wir wählen den (für eine (3 × 3)–Matrix noch zugelassenen) Weg über das charakteristische Polynom: det (TGSV − λE) = −λ3 − αβ − αβ + 1 + αβλ − (αβ − 1)λ − λ = −λ3 − 2αβ + 1, p λ1,2,3 = 3 |1 − 2αβ| < 1, |1 − 2αβ| < 1 ⇐⇒ −1 < 1 − 2αβ < 1. 0 < αβ < 1 Die Eigenwerte der Matrix TESV sind, da es sich um eine Dreiecksmatrix handelt, direkt abzulesen: λ1 = 0, λ2 = −1, λ3 = 1 − αβ. Wegen | − 1| = 1 ist die Konvergenzbedingung für das Einzelschrittverfahren verletzt. Da diese Bedingung aber notwendig und hinreichend ist, kann man im allgemeinen keine Konvergenz erwarten. Hier haben wir es also mit dem selteneren Fall einer Matrix zu tun, für die das Gesamtschrittverfahren konvergiert, aber das Einzelschrittverfahren zu Divergenz führt. Wir verweisen auf den Satz im Kasten Seite 114. Unsere hier betrachtete Matrix hat aber negative Einträge, so dass dieser Satz nicht anwendbar ist. Zu (c) Für die vorgegebenen Werte α = 0.5, β = 1 ist die Konvergenzbedingung für das Gesamtschrittverfahren erfüllt; denn 0 < αβ = 0.5 < 1. Die Rechnung erfolgt nach dem Muster in Aufgabe 2.35. Es zeigt sich dabei, dass keine echte Konvergenz eintritt, sondern dass der dritte iterierte Vektor nur eine Kopie des

2.9 Gesamt– und Einzelschrittverfahren

117

vorhergehenden ist. Die Iteration führt hier bereits nach zwei Schritten zur exakten Lösung: ~x(2) = ~x(3) = ~x(4) . . .. Das Ergebnis lautet: ~x(0) = (1, 1, 1)> , ~x(1) = (2, 0, −1/2)> , ~x(2) = (3/2, 1/4, 0)> . Aufgabe 2.35 Lösen Sie folgende Gleichungssysteme iterativ, beginnend mit dem Startvektor ~x(0) . Formen Sie dabei die Systeme wenn möglich so um, dass Konvergenz gesichert ist. Schätzen Sie bei (a) den Fehler k~x − ~x(2) k ab, wobei ~x die exakte Lösung ~x = (0.990974, 1.498195, 0.433213, 0.615523)> des Systems (a) ist: 1 1 (a)  2 5 

3 1 7 2

9 1 3 1

    1 x1 10 5   x2   6  = , 2   x3   15  1 x4 9

~x(0)

    −2 3 10 x1 0 (b)  10 2 1   x2  =  17  , 0 10 3 x3 −17

  1 1 =  , 0 0





    2 1 4 x1 1 (c)  1 2 −4   x2  =  1  , 4 4 2 x3 1

~x(0)

~x(0)

  0 =  0 , 0

  1 =  0 . 0

Lösung: Eine hinreichende Bedingung dafür, dass sowohl das Gesamtschrittverfahren (GSV) oder auch Jacobi–Verfahren als auch das Einzelschrittverfahren (ESV) oder auch Gauß–Seidel– Verfahren konvergieren, ist das Erfülltsein des starken Zeilensummenkriteriums oder auch des starken Spaltensummenkriteriums. Wir versuchen deshalb, durch Tausch der Zeilen der Gleichungssysteme diese Kriterien zu erfüllen. Zu (a) Durch den Zeilentausch (4) → (1) → (3) → (2) → (4) entsteht eine Matrix, die das starke Spaltensummenkriterium erfüllt. Das Zeilensummenkriterium wird zwar nur schwach erfüllt, aber die Matrix ist offensichtlich unzerlegbar. Da eine von beiden Bedingungen schon hinreicht, ist Konvergenz von GSV und ESV für jeden Startvektor gesichert:   5 2 1 1 9  2 7 3 2 15  A= . 1 3 9 1 10  1 1 1 5 6 Wir zerlegen die Matrix A in folgender Weise: A = L + D + R mit

118

2 Lineare Gleichungssysteme 0 2 L= 1 1 

0 0 3 1

0 0 0 1

  0 5 0 0 ,D =  0 0 0 0

0 7 0 0

0 0 9 0

  0 0 0 0 ,R =  0 0 5 0

2 0 0 0

1 3 0 0

 1 2 . 1 0

Gesamtschrittverfahren: Mit dieser Zerlegung rechnen wir nun iterativ, startend mit einem Vektor ~x(0) , Näherungsvektoren ~x(1) , ~x(2) , . . . aus nach der Vorschrift: D~x(k+1) = −(L + R)~x(k) + ~b. Als Startvektor ist in der Aufgabe vorgegeben ~x(0) = (1, 1, 0, 0)> . Man beachte aber, dass bei erfüllter Konvergenzbedingung das Gesamtschrittverfahren mit jedem beliebigen Startvektor konvergiert. Allerdings wird bei großen Matrizen durch eine bessere Anfangsnäherung wesentlich Rechenzeit eingespart. Es ist ein wichtiger Gesichtspunkt bei den Multigrid–Verfahren, sich eine gute Startnäherung zu verschaffen. Die obige Rechenvorschrift führt zu folgender Gleichung, aus der sich die neue Näherung ~x(1) berechnen lässt:       5 0 0 0 0 2 1 1 9  0 7 0 0  (1)  2 0 3 2  (0)  15  (1) D~x =  ~x = −  ~x +   . 0 0 9 0 1 3 0 1 10 0 0 0 5 1 1 1 0 6 Das Ergebnis der Rechnung, das mit einem Rechner gewonnen wurde, stellen wir in folgender Tabelle dar: ~x(0) ~x(1) ~x(2) .. .

1 1.4 0.7638

1 0 0 1.8571 0.¯6 0.8 1.22857 0.24762 0.41524

~x(9) 1.02279 1.53346 0.45728 0.63989 ~x(10) 0.96718 1.47183 0.41522 0.59729 .. . ~x(50) 0.99097 1.49819 0.43321 0.61552 ~x(60) 0.990974 1.498195 0.433213 0.615523 Die letzte Näherung ~x(60) war dabei so gut, dass sich die 6. Nachkommastelle nicht mehr änderte. Damit können wir also ~x(60) als Lösung akzeptieren.

2.9 Gesamt– und Einzelschrittverfahren

119

Einzelschrittverfahren: Die Rechenvorschrift lautet hier: (D + L)~x(k+1) = −R~x(k) + ~b. Diese Vorschrift führt zu rechnen lässt:  5 0 2 7 1 3 1 1

folgender Gleichung, aus der sich die neue Näherung ~x(1) be     0 0 0 2 1 1 9 0 0  (1)  0 0 3 2  (0)  15  ~x = −  ~x +   9 0 0 0 0 1 10 1 5 0 0 0 0 6

Das Ergebnis der Rechnung, das wiederum mit einem Rechner erzielt wurde, stellen wir in folgender Tabelle dar: ~x(0) ~x(1) ~x(2) ~x(3) ~x(4) ~x(5) .. .

1 1.4 0.92863 0.96166 0.98579 0.99057

1 1.74286 1.57513 1.50944 1.49875 1.49805

0 0.37460 0.42772 0.43292 0.43319 0.43320

0 0.49651 0.61370 0.61919 0.61645 0.61563

~x(9) 0.9909746 1.4981952 0.4332129 0.6155235 Hier führt also bereits die 9. Iteration zum Ergebnis. Dieses für GSV und ESV typische Verhalten gründet darauf, dass bei erfüllter Konvergenzbegingung das Einzelschrittverfahren schneller konvergiert als das Gesamtschrittverfahren. Zu (b) Hier ist es möglich, durch Zeilentausch (2) → (1) → (3) → (2) das starke Zeilensummenkriterium zu erfüllen und dadurch Konvergenz für jeden beliebigen Startvektor zu sichern:   10 2 1 17  0 10 3 −17  . −2 3 10 0 Da die Rechenvorschriften in (a) ausführlich dargelegt wurden, begnügen wir uns hier mit der Wiedergabe der Ergebnisse:

120

2 Lineare Gleichungssysteme

~x(0) ~x(1) ~x(2) ~x(3) .. .

0 1.7 2.04 1.955

~x(10) 2

GSV 0 −1.7 −1.7 −1.955

0 0 0.85 0.918

~x(0) ~x(1) ~x(2) ~x(3) .. .

−2

1

~x(7) 2

0 1.7 1.955 1.99325

ESV 0 −1.7 −1.955 −1.99325

0 0.85 0.9775 0.996625

−2

1

Zu (c) Hier ist auch durch Zeilentausch das starke Zeilensummenkriterium nicht erfüllbar, wie man sofort sieht. Wenn man trotzdem das Gesamt- oder das Einzelschrittverfahren anwendet, so muss man damit rechnen, dass eventuell Divergenz eintritt. Das Ergebnis in unserer Aufgabe ist tatsächlich nicht zu verwerten: ESV GSV

~x(0) 1 0 0 (1) ~x 0.5000 0.2500 −1.0000 ~x(2) 2.3750 −2.6875 1.1250 ~x(3) −0.4063 2.9531 −4.5938 ~x(4) 8.2109 −12.793 9.6641 ~x(5) −12.4 26.04 −26.72 ~x(6) 40 −73 65 ~x(7) −93 178 −168 .. .

~x(0) 1 0 0 ~x(1) 1/2 0 −3/2 ~x(2) 7/2 13/4 2/2 ~x(3) .. .

Aufgabe 2.36 Gegeben sei das Gleichungssystem 4x1 +20x2 +5x3 = 18 ax1 +5x3 = 1. 40x1 −16x2 +5x3 = −126 (a) Für welche Werte von a ∈ IR sind (eventuell nach Zeilentausch!) das Gesamt- und das Einzelschrittverfahren sicher konvergent? (b) Ausgehend von ~x(0) = (0, 0, 0) berechne man die Näherungen ~x(1) und ~x(2) nach dem GSV und dem ESV. Lösung: Zu (a) Zeilentausch: 

 40 −16 5 −126  4 20 5 18  . a 0 5 1

2.10 Das Youngsche SOR–Verfahren

121

Das Zeilensummenkriterium liefert aus der letzten Zeile (für die beiden anderen Zeilen ist es offensichtlich erfüllt) die Bedingung: |a| < 5. Das Spaltensummenkriterium ist in der dritten Spalte nicht erfüllt und auch nicht durch noch so gechickte Manipulation erfüllbar. Nun sagt der Konvergenzsatz ja, dass Konvergenz sicher eintritt, wenn das starke Zeilensummen– oder das starke Spaltensummenkriterium erfüllt ist. Daher reicht es aus, a so zu wählen, dass wenigstens eins der beiden Kriterien erfüllt ist. Das ist hier das Zeilensummenkriterium. Wir müssen also, um Konvergenz vorab zu sichern, verlangen: |a| < 5 =⇒ −5 < a < 5.

Zu (b) Gesamtschrittverfahren: 40 4 a 0 −3.15 −2.815

−16 20 0 0 0.9 1.48

5 −126 5 18 5 1 0 0.2 0.2 + 0.63a

Einzelschrittverfahren: 40 4 a 0 −3.15 −2.56 − 0.079a

2.10

−16 20 0 0 1.53 1.36 − 0.142a

5 −126 5 18 5 1 0 0.2 + 0.63a 0.2 + 0.513a + 0.0158a2

Das Youngsche SOR–Verfahren

Aufgabe 2.37 Lösen Sie das folgende lineare Gleichungssystem 

    5 −1 −2 x1 3  −1 6 −4   x2  =  −4  . −2 −4 8 x3 6 mit dem Youngschen SOR–Verfahren (successive overrelaxation), wobei als Relaxationsparameter ωa = 0.9 und als Startvektor ~x(0) = (1, 0, 1)> gewählt werde.

122

2 Lineare Gleichungssysteme

Lösung: Wir stellen zunächst die Formeln für das Einzelschrittverfahren (ESV) und das Youngsche Überrelaxationsverfahren (SOR) einander gegenüber: ESV ~x(k+1) = D−1 [−L~x(k+1) − R~x(k) + ~b] (k+1) (k) SOR ~x = (1 − ω)~x + ω D−1 [−L~x(k+1) − R~x(k) + ~b]

Aus ω = 0.9 folgt 1 − ω = 0.1. Mit dem Startvektor ~x(0) = (1, 0, 1)> ergibt sich die folgende Formel zur Berechnung des ersten Näherungsvektors:       1 1/5 0 0 0 0 0 ~x(1) = 0.1 ·  0  + 0.9  0 1/6 0   1 0 0  ~x(1) 1 0 0 1/8 2 4 0      0 1 2 1 3 +  0 0 4   0  +  −4  . 0 0 0 1 6 Man beachte, dass hier auf der rechten Seite auch der zu berechnende erste Näherungsvektor ~x(1) auftritt, dass aber stets wegen der vorgeschalteten Matrix nur die bereits berechneten Komponenten für die nächste Zeile benötigt werden entsprechend dem ESV. Damit folgt z. B. für die 1. Komponente: 0.1 · 1 + 0.9 · 1/5 · [0 + 0 · 1 + 1 · 0 + 2 · 1 + 3] = 1, 2. Komponente: 0.1 · 0 + 0.9 · 1/6 · [1 · 1 + 4 · 1 − 4] = 0.15, 3. Komponente: 0.1 · 1 + 0.9 · 1/8[2 · 1 + 4 · 0.15 + 6] = 1.0675. Wir fassen das rechnerische Ergebnis in der folgenden Tabelle zusammen.

~x(0)

5 −1 −2 3 −1 6 −4 −4 −2 −4 8 6 1.000000 .00000000 1.000000

(1)

~xSOR 1.000000 0.1500000 1.067500 (2)

~xSOR 1.051300 0.2131950 1.114230 (3)

~xSOR 1.084628 0.2525519 1.144113 (4)

~xSOR 1.105803 0.2775932 1.163134 (5)

~xSOR 1.119275 0.2935308 1.175239 (6)

~xSOR 1.127849 0.3036739 1.182943 (7)

~xSOR 1.133306 0.3101292 1.187846

2.10 Das Youngsche SOR–Verfahren

123

Es zeigt sich, dass die 33. Iteration die Lösung auf 7 Stellen exakt liefert: x1 = 1.142857,

x2 = 0.3214285,

x3 = 1.196429.

Aufgabe 2.38 Zur näherungsweisen Berechnung des optimalen Relaxationsparameters ωopt haben sich folgende Formeln bewährt:

q = limk→∞

µ2 =

1 q

ωopt =

k~x(k+1) − ~x(k) k , k~x(k) − ~x(k−1) k

 2 q−1 1+ , ωa 2 p . 1 + 1 − µ2

Berechnen Sie zur Lösung von Aufgabe 2.37, beginnend mit dem dort vorgegebenen ωa , eine Näherung an ωopt und lösen Sie damit erneut das Gleichungssystem. Lösung: Die Formeln sind folgendermaßen zu verstehen: i Starte SOR mit einem beliebigen ωa . ii Berechne aus den Lösungsnäherungen ~x(1) , ~x(2) , . . . die Quotienten: qk =

k~x(k+1) − ~x(k) k , k~x(k) − ~x(k−1) k

k = 1, 2, . . .

iii Falls die Quotienten qk oszillieren, so war ωa zu groß. Dann neuer Start mit kleinerem ωa . Falls sich sonst die Quotienten nicht mehr ändern (im Rahmen der Rechengenauigkeit), so berechne man mit dem letzten qk : µ ˜2 =

1 qk

 1+

qk − 1 ωa

2

und damit weiter: ω ˜ opt = iv Setze SOR mit diesem ω ˜ opt fort.

2 p . 1+ 1−µ ˜2

,

124

2 Lineare Gleichungssysteme

Eventuell muss das Schema mehrfach durchlaufen werden.1 Wir wählen als Norm k.k die 1-Norm, also die Betragssummennorm. Als Quotienten erhalten wir: k~x(6) − ~x(5) k 0.0264211 q5 = (5) = = 0.6364291, 0.041546 k~x − ~x(4) k q6 =

k~x(7) − ~x(6) k 0.0168153 = = 0.6364345. (6) (5) 0.0264211 k~x − ~x k

Vier Stellen Genauigkeit mögen uns hier reichen, wir bleiben also bei q6 ≈ 0.6364. Mit diesem Wert ergibt sich µ ˜2 = 0.5581646 und daraus das angenäherte optimale ω ˜ opt : ω ˜ opt = 1.2014. Jetzt lassen wir SOR erneut starten mit demselben Startvektor wie oben, aber dem neuen hoffentlich besseren ω ˜ opt . Das hiermit folgende rechnerische Ergebnis wird in der untenstehenden Tabelle gezeigt:

~x(0) (1)

5 −1 −2 1

−1 6 −4 0

−2 3 −4 −4 8 6 1

~xSOR

1 0.2002330 1.120280

(2) ~xSOR (3) ~xSOR (4) ~xSOR (5) ~xSOR (6) ~xSOR

1.105914 0.2774504 1.174251 1.129073 0.3097632 1.189748 1.139620 0.3177788 1.194609 1.141758 0.3204865 1.195899 1.142598 0.3211421 1.196285

.. . (14)

~xSOR 1.142857 0.3214285 1.196429 Die gleiche Genauigkeit wie oben erreicht man hier also bereits nach 14 Iterationen. Man beachte dabei, dass es sich in der Aufgabe lediglich um eine kleine (3×3)–Matrix handelt. Wenn sich da die Anzahl der Iterationen auf weniger als die Hälfte reduzieren lässt, ahnt man, welche Auswirkungen dies Verfahren bei größeren Matrizen haben wird. 1

Diese Formeln führen bei konsistent geordneten Matrizen tatsächlich zu einem optimalen Relaxationsparameter ωopt , was 1950 von Young bewiesen wurde. Vgl. Finck von Finckenstein [7]

2.10 Das Youngsche SOR–Verfahren

125

Aufgabe 2.39 Betrachten Sie das folgende lineare Gleichungssystem: −10x1 + 3x2 + 5x3 = 1 3x1 + 6x2 − x3 = 2 5x1 − x2 + 8x3 = 3 Mit dem Relaxationsparameter ωa = 0.5 sind mit dem Startvektor ~x = (1, 0, 0)> die folgenden Näherungen erzielt worden: ~x(8) = (0.1500, 0.3126, 0.3223)> ~x(9) = (0.1525, 0.3117, 0.3205)> ~x(10) = (0.1531, 0.3109, 0.3193)> Berechnen Sie daraus eine Näherung für ein optimales ω in der 1–Norm und damit, startend bei ~x(10) , eine weitere SOR–Näherung ~x(11) . Lösung:

q9 =

k~x(10) − ~x(9) k1

k~x(9) − ~x(8) k1 |0.1531 − 0.1525| + |0.3109 − 0.3117| + |0.3193 − 0.3205| = |0.1525 − 0.15| + |0.3117 − 03126| + |0.3205 − 0.3223| 0.0026 = = 0.5 0.0052 Wir folgen dem Berechnungsschema für das optimale ω und erhalten:  2  2 q9 − 1 1 0.5 − 1 1+ = 1+ =0 ωa 0.5 0.5 2 p =⇒ ωopt = =1 1 + 1 − µ2 Für ω = 1 wird das SOR–Verfahren zum Einzelschritt–Verfahren, wie man unmittelbar an den Formeln abliest. So müssen wir also einen Schritt des ESV durchführen, um der Aufgabe gerecht zu werden: µ2 =

1 q9

−10 3 5 1 3 6 −1 2 5 −1 8 3 0.1531 0.3109 0.3193 0.15292 0.31009 0.3181863 Spielerei mit dem Computer zeigt, dass ω = 0.9 ein noch wesentlich besserer Relaxationsparameter ist. Aber unsere Näherungsrechnung lässt nur ein ω ≥ 1 zu.

126

2 Lineare Gleichungssysteme

Aufgabe 2.40 Lösen Sie das folgende lineare Gleichungssystem      5 −1 −2 x1 3  −1 6 −4   x2  =  −4  . −1 −4 8 x3 6 mit dem Youngschen SOR–Verfahren, wobei als Relaxationsparameter ωa = 0.9 und als Startvektor ~x(0) = (1, 0, 1)> gewählt werde. Lösung: Die Aufgabe unterscheidet sich von der Aufgabe 2.37 lediglich im Element a31 = −1, woraufhin die Matrix unsymmetrisch und damit auch nicht mehr positiv definit ist. Bekanntlich gelten die Konvergenzaussagen:

Konvergenz des SOR–Verfahrens Ist die Matrix A symmetrisch und sind ihre Diagonalelemente positiv, so konvergiert das SOR–Verfahren genau dann, wenn A positiv definit ist und 0 < ω < 2 gilt. Damit ist natürlich auch das ESV konvergent, das sich ja für ω = 1 aus dem SOR–Verfahren ergibt. Ist die Matrix stark diagonaldominant, so konvergiert für 0 < ω ≤ 1 das SOR–Verfahren (und damit auch das ESV). Stark diagonaldominant ist unsere Matrix A hier offensichtlich, so dass wir das SOR– Verfahren mit ω = 0.9 starten können. Aus ω = 0.9 folgt 1 − ω = 0.1. Mit dem Startvektor ~x(0) = (1, 0, 1)> ergibt sich die folgende Tabelle für die Näherungslösungen:

~x(0)

5 −1 −2 3 −1 6 −4 −4 −1 −4 8 6 1.000000 .00000000 1.0000000

(1)

~xESV 1.000000 0.1666667 0.9583333 (1)

~xSOR 1.000000 0.1500000 0.9550000 (2)

~xSOR 1.010800 0.1396200 0.9470440 (3)

~xSOR 1.007147 0.1332605 0.9429757 (4)

~xSOR 1.004173 0.1297374 0.9406489 (5)

~xSOR 1.002404 0.1277236 0.9393109 (6)

~xSOR 1.001382 0.1265662 0.9385414 (7)

~xSOR 1.000795 0.1259007 0.938099

2.10 Das Youngsche SOR–Verfahren

127

Es zeigt sich, dass die 24. Iteration zum exakten Ergebnis führt: x1 = 1,

x2 = 0.125,

x3 = 0.9375.

Berechnen wir nun hier ebenfalls das optimale ω aus den Formeln der Aufgabe 2.38, so folgt, wenn wir wieder als Norm k.k die 1-Norm, also die Betragssummennorm wählen: q5 =

k~x(6) − ~x(5) k 0.002950 = = 0.5761718, 0.00512 k~x(5) − ~x(4) k

q6 =

k~x(7) − ~x(6) k 0.001694 = = 0.5746268. (6) (5) 0.002948 k~x − ~x k

Mit diesem Wert ergibt sich µ ˜2 = 0.4858366 und daraus das angenäherte optimale ω ˜ opt : ω ˜ opt = 1.067. Für diesen Wert von ω gibt die Theorie keine Aussage mehr her, was das Konvergenzverhalten des SOR–Verfahrens anbelangt. Wir wollen aber mal etwas unmathematisch, dafür jedoch kreativ, unser Verfahren ohne den Sicherheitsgurt der mathematischen Analyse durchführen. Das rechnerische Ergebnis wird in der untenstehenden Tabelle gezeigt:

~x(0) (1)

5 −1 −1 1

−1 6 −4 0

−2 3 −4 −4 8 6 1

~xSOR

1 0.1778667 0.9615096

(2) ~xSOR (3) ~xSOR (4) ~xSOR (5) ~xSOR (6) ~xSOR

1.021533 0.1423595 0.9480221 1.00675 0.1325201 0.9417062 1.002947 0.1280114 0.9392173 1.00178 0.1262289 0.9381975 1.000481 0.1254992 0.9377837

.. . (16)

~xSOR

1

0.125

0.9375

Hier liegt das richtige Endergebnis also bereits nach 16 Iterationen vor. Das bestätigt die Erfahrung vieler Anwender, dass man auch in Fällen, wo die Theorie keine Konvergenzaussage machen kann, das Verfahren einfach probeweise durchführen sollte. Häufig stellt sich trotzdem Konvergenz ein.

128

2.11

2 Lineare Gleichungssysteme

Das Verfahren der konjugierten Gradienten

Aufgabe 2.41 Stellen Sie für das Verfahren der konjugierten Gradienten (cg–Verfahren) von Hestenes und Stiefel ein Flussdiagramm auf. Lösung: Beim cg–Verfahren greifen wir auf einen allgemeineren Orthogonalitätsbegriff zurück, der dem Problem angepasst ist. Man sagt: Konjugierte Vektoren Sei A eine symmetrische, nichtsinguläre Matrix. Dann heißen zwei Vektoren ~x und ~y konjugiert, wenn gilt: ~x> A~y = 0

cg–Verfahren Der Grundgedanke der Methode der konjugierten Gradienten besteht darin, statt das vorgegebenen Gleichungssystem A~x = ~b zu lösen, das folgende Funktional iterativ zu minimieren: 1 F (~x) = ~x> A~x − ~b> ~x 2 Der Gradient dieses Funktionals berechnet sich zu: grad F (~x) = A~x − ~b Haben wir für das Funktional ein Minimum bei ~x0 errechnet, so verschwindet der Gradient an dieser Stelle: grad F (~x0 ) = A~x0 − ~b = 0, und damit ist ~x0 die gesuchte Lösung des Gleichungssystems. Bei der Durchführung gilt es als erstes zu beachten, dass der Vektor ~r = A~x − ~b, also der sog. Residuenvektor, gerade gleich dem Gradienten des Funktionals F ist. Wir starten mit einem beliebigen Vektor ~x(0) . Um möglichst rasch zum Minimum zu gelangen, legen wir die Relaxationsrichtung p~(0) in Richtung des negativen Gradienten, den wir ja leicht als Residuenvektor berechnen können; denn dort ist der stärkste Abstieg zu erwarten, also p~(0) = −~r(0) = −grad F (~x(0) ) = −(A~x(0) − ~b). Für den damit zu erzielenden ersten Näherungsvektor ~x(1) machen wir nun den Ansatz: ~x(1) = ~x(0) + σ0 · p~(0) .

2.11 cg–Verfahren

129

Aus der Bedingung, dass das Funktional F minimal werden möge, wird in der Literatur folgende Formel für den Parameter σ0 hergeleitet:

σ0 =

(~r(0) )> · ~r(0) . (~ p(0) )> · A · p~(0)

Im allgemeinen Schritt wählt man als Relaxationsrichtung eine Linearkombination des aktuellen Residuenvektors, also des jeweiligen Gradienten, und der vorhergehenden Relaxationsrichtung: p~(k) := −~r(k) + βk · p~(k−1) . Hier bestimmt sich βk aus der Forderung, dass p~(k) und p~(k−1) konjugiert zueinander sein mögen: (~r(k) )> · ~r(k) βk := (k−1) > (k−1) . (~r ) · ~r Das ganze fassen wir zusammen in einem Ablaufplan, der auf der Seite 130 abgedruckt ist.

Bemerkung: Die Relaxationsrichtungen bestehen aus paarweise konjugierten Richtungen, und demzufolge sind die Residuenvektoren paarweise orthogonal. In einem n–dimensionalen Raum gibt es aber nur n orthogonale Vektoren. Die Methode endet theoretisch also nach n Schritten. In der Praxis wird aber durch das Auftreten von Rundungsfehlern doch ein iterativer Prozess ablaufen. Der aufwendigste Punkt im obigen Ablauf ist die zweimalige Multiplikation der Matrix A mit dem Vektor p~(k) bzw. mit dem Vektor ~x(k) . Durch eine leichte Überlegung kann die zweite Multiplikation auf die erste zurückgeführt werden. Es gilt nämlich: ~r(k+1) = A · ~x(k+1) − ~b = A · (~x(k) + σk p~(k) ) − ~b = ~r(k) + σk · A · p~(k) . Mit dieser Formel kann erheblich Speicherplatz im Rechner gespart werden. Aufgabe 2.42 Lösen Sie mit dem in der Aufgabe 2.41 beschriebenen cg–Verfahren das folgende lineare Gleichungssystem:      5 −1 −2 x1 3  −1 6 −4   x2  =  −4  . −2 −4 8 x3 6

130

2 Lineare Gleichungssysteme  Start  ?

 

~x(0) bel. ~r(0) := A~x(0) − ~b p~(0) := −~r(0) k=0 ? !a aa !! ! aa ! -! (k) a PP ~r klein  PP  PP nein ? σk :=

(~ r (k) )> ·~ r (k) (~ p(k) )> ·A·~ p(k)

~x(k+1) := ~x(k) + σk · p~(k) ? k := k + 1

? ~r(k) := A · ~x(k) − ~b βk :=

(~ r (k) )> ·~ r (k) (~ r (k−1) )> ·~ r (k−1)

p~(k) := −~r(k) + βk · p~(k−1)

Abbildung 2.2: Ablaufplan für das cg–Verfahren

ja





Stop 



2.11 cg–Verfahren

131

Lösung: Falls man keine Idee für einen Startvektor hat, so ist es nicht schlecht, mit dem Vektor der rechten Seite zu beginnen. Aus Platzgründen schreiben wir alle Vektoren als Zeilenvektoren. Daher also: ~x(0) = (3, −4, 6).

Dann ergibt sich aus dem Flussdiagramm von Seite 130 der folgende Rechengang:

~r(0) = A~x(0) − ~b p~(0) = −~r(0) (0) >

= (4, −47, 52), = −(4, −47, 52),

(0)

r ) ·~ r σ0 = (~p(~(0) )> ·A·~ p(0) (1) (0) ~x = ~x + σ0 · p~(0) (1) ~r = A · ~x(1) − ~b

β1 = p~(1) =

(~ r (1) )> ·~ r (1) (~ r (0) )> ·~ r (0) −~r(1) + β1 (1) >

σ2 = ~x(3) =

(1)

(~ r (2) )> ·~ r (2) (~ r (1) )> ·~ r (1) −~r(2) + β2

(1)

· p~

(~ r (2) )> ·~ r (2) (~ p(2) )> ·A·~ p(2) ~x(2) + σ2 · p~(2) (3) ~

~r(3) = A · ~x

= (7.373, −1.9605, −2.3392),

= 0.0129, · p~(0) = −(7.4251, −2.5668, −1.6673),

r ) ·~ r σ1 = (~p(~(1) )> ·A·~ p(1) ~x(2) = ~x(1) + σ1 · p~(1) ~r(2) = A · ~x(2) − ~b

β2 = p~(2) =

= 0.0912, = (2.64, 0.29, 1.26),

−b

= 0.1629, = (1.4305, 0.7035, 1.5307), = (0.3629, 0.6728, 0.5802), = 0.0145, = −(0.4703, 0.6356, 0.5705), = 0.6011, = (1.1429, 0.3214, 1.1964), = (0, 0, 0).

Da der Residuenvektor gleich Null ist, ist also ~x(3) die Lösung der Aufgabe. Man sieht, dass das cg–Verfahren bei exakter Rechnung kein iteratives Verfahren ist, sondern nach spätestens n = 3 (Anzahl der Gleichungen) Schritten zum exakten Ergebnis führt. In der Praxis wird es aber infolge von Rundungsfehlern zu einem iterierenden Prozess kommen. Beginnt man mit einem anderen Startvektor, den wir hier aus der Kenntnis der Lösung wählen als ~x(0) = (1, 0, 1),

132

2 Lineare Gleichungssysteme

so ergibt sich die folgende Rechnung: ~r(0) = A~x(0) − ~b p~(0) = −~r(0) (0) >

= (0, −1, 0), = −(0, −1, 0),

(0)

r ) ·~ r σ0 = (~p(~(0) )> ·A·~ p(0) ~x(1) = ~x(0) + σ0 · p~(0) ~r(1) = A · ~x(1) − ~b

β1 = p~(1) = σ1 = ~x(2) =

(~ r (1) )> ·~ r (1) (~ r (0) )> ·~ r (0) −~r(1) + β1

σ2 = ~x(3) =

· p~

(~ r (1) )> ·~ r (1) (~ p(1) )> ·A·~ p(1) ~x(1) + σ1 · p~(1) (2) ~

~r(2) = A · ~x β2 = p~(2) =

(0)

−b

(~ r (2) )> ·~ r (2) (~ r (1) )> ·~ r (1) (2) −~r + β2

(1)

· p~

(~ r (2) )> ·~ r (2) (~ p(2) )> ·A·~ p(2) ~x(2) + σ2 · p~(2) (3) ~

~r(3) = A · ~x

−b

= 0.1667, = (1, 0.1667, 1), = (−0.1667, 0, −0.6667), = 0.4722, = −(−0.1667, −0.4722, −0.6667), = 0.2470, = (1.0412, 0.2833, 1.1646), = (−0.4068, 0, 0.1017), = 0.3723, = −(−0.4688, −0.1758, −0.1465), = 0.2169, = (1.1429, 0.3214, 1.1964), = (0, 0, 0).

Wie es sich gehört, führt auch der andere Startvektor zum selben Ergebnisvektor ~x(3) wie zuvor, und zwar nach ebenfalls drei Schritten. Aufgabe 2.43 Lösen Sie mit dem Verfahren der konjugierten Gradienten (cg–Verfahren) das folgende lineare Gleichungssystem: x1 + x2 = −2 x1 + 3x2 − x3 = −2 −x2 + x3 = 1 Startvektor ~x(0) = (−1, −1, −1)> . Lösung: Wir verfahren exakt so, wie wir es in Aufgabe 2.42 vorgeführt haben. Mit den dortigen Bezeichnungen ergibt sich das folgende Rechenschema: ~x(0) = (−1, −1, −1)> , p~(0) = −~r(0) = −((−2, −3, 0)> − (−2, −2, 1)> ) = −(0, −1, −1)> . Iteration: 

(~ p(0) )> A~ p(0)

  1 1 0 0 = (0, 1, 1)  1 3 −1   1  = 2. 0 −1 1 1

2.11 cg–Verfahren

133

k=0: σ0 = 2/2 ~x(1) = ~x(0) + σ0 p~(0) ~r(1) = A~x(1) − ~b (~r(1) )>~r(1) β1 = (0) > (0) (~r ) ~r p~(1) = −~r(1) + β1 p~(0)

= 1, = (−1, 0, 0), = (1, 1, −1), 3 = , 2 1 = − (2, −1, −5). 2

k=1: (~ p(1) )> A~ p(1)

   1 1 0 −2 1 9 = (−2, 1, 5)  1 3 −1   1  = , 4 2 0 −1 1 5

~r(2)

(~r(1) )> · ~r(1) (~ p(1) )> A~ p(1) = ~x(1) + σ1 p~(1) = A~x(2) − ~b

β2

=

σ1 ~x(2)

=

(~r(2) )>~r(2) (~r(1) )>~r(1)

p~(2) = −~r(2) + β2 p~(1)

3 2 = , 9/2 3 = 13 (−5, 1, 5), 1 = (2, −1, 1), 3 2 = , 9 1 = − (8, −4, −2). 9 =

k=2: (~ p(2) )> A~ p(2)

σ2 ~x(3) ~r(3)

   1 1 0 −4 4 4 = (−4, 2, 1)  1 3 −1   2  = , 81 9 0 −1 1 1

2/3 3 = , 4/9 2 = ~x(2) + σ2 p~(2) =  (−3, 1, 2), 0 = A~x(3) − b =  0 . 0 =

Da wir hier zum Residuumvektor gleich Null geführt werden, ist also ~x(3) = (−3, 1, 2)> die gesuchte Lösung der Aufgabe.

3

Matrizeneigenwerte

3.1

Grundlegende Beispiele

Aufgabe 3.1 Zeigen Sie: Ist λ ein reeller Eigenwert der komplexen (n × n)–Matrix A = A1 + iA2 , (A1 , A2 reelle Matrizen), so ist λ auch Eigenwert der (reellen) (2n × 2n)–Matrix  A=

A1 −A2 A2 A1

 und umgekehrt.

Lösung:

Eigenwertgleichung Gegeben sei eine quadratische Matrix A. Gesucht werden ein Vektor ~x 6= ~0 und eine reelle oder komplexe Zahl λ so dass folgende Gleichung, die sog. Eigenwertgleichung, erfüllt ist: A~x = λ~x ~x 6= 0

Charakteristisches Polynom p(λ) = det (A − λE)

Sei λ Eigenwert zum Eigenvektor ~x = ~x1 + i~x2 . Wir haben also den Eigenvektor in seinen Realteil ~x1 und seinen Imaginärteil ~x2 aufgespalten, so dass ~x1 und ~x2 reelle Vektoren sind. Die Eigenwertgleichung formen wir dann so um: (A1 + iA2 )(~x1 + i~x2 ) = A1 ~x1 − A2 ~x2 + i(A2 ~x1 + A1 ~x2 ) = λ · (~x1 + i~x2 ) = λ · ~x1 + iλ · ~x2 .

136

3 Matrizeneigenwerte

Betrachten wir nun Real- und Imaginärteil allein (Koeffizientenvergleich), so folgt: A1 ~x1 − A2 ~x2 = λ · ~x1 , A2 ~x1 + A1 ~x2 = λ · ~x2 . Das aber ist gleichwertig zu: 

A1 −A2 A2 A1



~x1 ~x2



 =λ

~x1 ~x2

 .

Für den umgekehrten Schluß brauchen wir jetzt nur die ganze Beweiskette rückwärts zu durchlaufen. Aufgabe 3.2 Gegeben seien die folgenden Matrizen: 

 1 −3 3 A =  3 −5 3  , 6 −6 4



 −3 1 −1 B =  −7 5 −1  . −6 6 −2

(a) Berechnen Sie jeweils sämtliche Eigenwerte und die zugehörigen Eigenvektoren. (b) Welche Matrix ist diagonalähnlich? Lösung: Zu (a) Berechnung des charakteristischen Polynoms von A: 

 1−λ −3 3 3 −5 − λ 3  = −(λ + 2)2 (λ − 4). det  6 −6 4 − λ

Berechnung der Eigenwerte von A: Die Nullstellen dieses Polynoms sind ja bekanntlich die Eigenwerte der Matrix. Wir erhalten also: λ1 = λ2 = −2, λ3 = 4. Dabei hat λ1 die Vielfachheit 2, λ3 die Vielfachheit 1. Berechnung der Eigenvektoren von A:   1    x1 3 −3 3 0  3 −3 3   x12  =  0  . λ1 = −2 6 −6 6 0 x13

3.1 Grundlegende Beispiele

137

Wie man sieht, hat die Matrix den Rang 1, also ist nur eine Gleichung zu berücksichtigen: 3x11 − 3x12 + 3x13 = 0. Mit den Parametern x12 := κ, x13 := µ folgt x11 = κ − µ, also:  1     x1 1 −1  x12  = κ  1  + µ  0  , 0 1 x13 und daher erhalten wir die beiden linear unabhängigen Eigenvektoren: ~e1 = (1, 1, 0)> , ~e2 = (−1, 0, 1)> .  λ3 = 4

 3    x1 −3 −3 3 0  3 −9 3   x32  =  0 . 6 −6 0 0 x33

Eine kurze Umformung nach Gauß führt auf das System von zwei Gleichungen mit drei Unbekannten: x31 + x32 − x33 = 0 −2x32 + x33 = 0 Wählen wir als Parameter x33 := ρ, so folgt: x32 = ρ/2,

x31 = ρ/2,

d.h. ~e3 = (1, 1, 2)> . Berechnung des charakteristischen Polynoms von B:   −3 − λ 1 −1 −7 5 − λ −1  = −(λ + 2)2 (λ − 4). det  −6 6 −2 − λ Wir erhalten dasselbe charakteristische Polynom wie oben, also auch die gleichen Eigenwerte: λ1 = λ2 = −2, λ3 = 4. Dabei hat λ1 die Vielfachheit 2, λ3 die Vielfachheit 1. Berechnung der Eigenvektoren von B:   1    x1 −1 1 −1 0  −7 7 −1   x12  =  0 . λ1 = −2 −6 6 0 0 x13

138

3 Matrizeneigenwerte

Umformung nach Gauß liefert: −x11 + x12 − x13 = 0 −6x11 + 6x12 = 0 und damit den einzigen linear unabhängigen Eigenvektor: ~e1 = (1, 1, 0)> .  λ3 = 4

 3    x1 −7 1 −1 0  −7 1 −1   x32  =  0 . −6 6 −6 0 x33

Das führt nach kurzer Rechnung zum Eigenvektor: ~e3 = (0, 1, 1, )> . Zu (b) Stellen wir kurz zusammen, wann Matrizen zueinander ähnlich heißen und wie man Ähnlichkeit testet: Ähnlichkeit von Matrizen Zwei (n × n)–Matrizen A und B heißen zueinander ähnlich, wenn es eine reguläre Matrix T gibt, so dass gilt: B = T −1 · A · T Eine (n × n)–Matrix A heißt diagonalähnlich, wenn A ähnlich zu einer Diagonalmatrix ist. Eine (n × n)–Matrix A ist genau dann diagonalähnlich, wenn A n linear unabhängige Eigenvektoren besitzt. Damit ist also die in der Aufgabe vorgegebene Matrix A diagonalähnlich, und es gilt:   −2 0 0 A '  0 −2 0  . 0 0 4 Dagegen ist B nicht diagonalähnlich – trotz gleichen charakteristischen Polynoms mit A; denn sie hat nicht drei linear unbhängige Eigenvektoren.

3.1 Grundlegende Beispiele

139

Aufgabe 3.3 Zeigen Sie, dass zueinander ähnliche Matrizen A und B dasselbe charakteristische Polynom und damit auch dieselben Eigenwerte besitzen.

Lösung: Setzen wir also voraus, dass A und B ähnlich zueinander sind. Es gibt also eine reguläre Matrix T mit B = T −1 · A · T . Wir können dann leicht die folgenden Umformungen für die charakteristischen Polynome von A und B durchziehen, wenn wir nur beachten: T −1 · T = E: det (T −1 AT − λE) = = = =

det (T −1 AT − λT −1 T ) = det (T −1 (A − λE)T ) det (T −1 )det (A − λE)det T (det T )−1 · det T · det (A − λE) det (A − λE).

Dass die Umkehrung dieser Aussage falsch ist, zeigte uns Aufgabe 3.2. Dort hatten zwar die Matrizen A und B dasselbe charakteristische Polynom und daher auch dieselben Eigenwerte, aber die Matrizen waren nicht ähnlich zueinander. Die Eigenwerte hatten sogar dieselbe Vielfachheit, aber das reicht eben nicht zur Ähnlichkeit. Sie müssen auch noch dieselbe Anzahl linear unabhängiger Eigenvektoren besitzen. Darauf gehen wir in der Aufgabe 3.4 näher ein.

Aufgabe 3.4 Zeigen Sie, dass die folgende Matrix A zu jedem Eigenwert genau einen Eigenvektor besitzt (bis auf Vielfache)1 : 

0 −1

     A=    

0 0 .. .. . . .. .. . . 0 0 a0 a1

0 ...

...

 0 ..  .  ..  .   0  −1 

−1 0 . . . .. .. .. . . . .. .. . . ... ... 0 . . . . . . an−2 an−1

Lösung: Für Eigenwerte müssen wir die folgenden beiden Zusatzangaben unterscheiden: 1

Die Matrix A wird uns wieder begegnen bei der Umwandlung von linearen Differentialgleichungen n-ter Ordnung in ein System von Differentialgleichungen erster Ordnung.

140

3 Matrizeneigenwerte

Vielfachheit und Ordnung Vielfachheit = Nullstellenvielfachheit im charakt. Polynom Ordnung = Dimension des zugehörigen Eigenraumes = Anzahl der lin. unabh. Eigenvektoren = n − rg (A − λE)

Wir bilden mit der gegebenen Matrix A die Matrix A−λE. Streichen wir bei dieser Matrix die erste Spalte und die letzte Zeile, so ergibt sich für den Rang der verbleibenden Matrix: 

−1

0 ... ...

  −λ −1 0 . . .   rg  ... . . . . . . . . .   . .. ..  .. . . 0 . . . . . . −λ

 0 ..  .  ..  = n − 1, .   0 −1

denn es ist ja eine n − 1–reihige Dreiecksmatrix, deren Diagonalelemente alle −1 lauten. Sie hat also den vollen Rang n − 1. Durch Hinzufügen einer Zeile und einer Spalte kann sich der Rang höchstens um 1 erhöhen oder gleich bleiben. Da aber rg(A − λE) < n für jeden Eigenwert λ, was sich unmittelbar aus der Definition „Eigenwert“ ergibt, folgt rg(A − λE) = n − 1, was wir zeigen wollten.

3.2

Eigenwert–Abschätzung

Aufgabe 3.5 Geben Sie für folgende Matrizen jeweils eine Abschätzung der Eigenwerte nach Gerschgorin an:      0 1.5 1.0 −0.5 10 1 1 10 1 1  0.1 3.0 −0.1 0.1  A =  1 20 1  , B =  1 10 1  , C =  . −0.5 0.4 6.0 1.4  1 1 30 1 1 10 0 −0.1 0.2 10.0 

Lösung: Die Gerschgorin–Kreise gewinnt man nach der folgenden Vorschrift:

3.2 Eigenwert–Abschätzung

141

Gerschgorin–Kreise Gegeben sei eine (n × n)–Matrix A. Aus jeder Zeile von A bilde man einen Kreis, wobei der Mittelpunkt das Diagonalelement, der Radius die Summe der Beträge der Nichtdiagonalelemente ist:     n   X Ki := z ∈ C : |z − aii | ≤ |aij | i = 1, . . . , n     j=1 j6=i

Dann liegen bekanntlich in der Vereinigung aller Kreise, die wir auch Zeilenkreise nennen wollen, alle Eigenwerte der Matrix A. Analog kann man mit den Spalten der Matrix verfahren und so die Spaltenkreise erzeugen. Sämtliche Eigenwerte von A liegen auch in der Vereinigung aller Spaltenkreise. Man suche sich das bessere heraus oder bilde den Durchschnitt beider Kreismengen. Darüberhinaus gilt die Verschärfung:

Gerschgorin–Kreise–Satz In jeder Vereinigung von Gerschgorin–Kreisen, die eine einfach zusammenhängende Punktmenge K bilden, welche zu den übrigen Kreisen disjunkt ist, liegen genau so viele Eigenwerte, wie Kreise bei der Vereinigung beteiligt sind. Für die Matrix A ergibt sich damit als einfaches Ergebnis die folgende Abschätzung für die Eigenwerte, wobei bedacht wurde, dass die Matrix symmetrisch ist und folglich alle Eigenwerte reell sind: 8 ≤ λ1 ≤ 12, 18 ≤ λ2 ≤ 22, 28 ≤ λ3 ≤ 32. Die exakten Werte sind übrigens: λ1 = 9.8608, λ2 = 19.9806, λ3 = 30.1586. Für die Matrix B gilt dann: 8 ≤ λ1 , λ2 , λ3 ≤ 12. Auch hier zum Vergleich die exakten Eigenwerte: λ1 = λ2 = 9, λ3 = 12. Etwas schwieriger ist die Untersuchung der Matrix C. Zunächst ist C nicht symmetrisch, wir müssen also ernsthaft die Eigenwerte in der komplexen Ebene suchen. Die Zeilen-

142

3 Matrizeneigenwerte 4

............................... ....... ..... .......... . . . ......... ............. ... . . .. .. . ... ... ... . 1 ... ... .. ... ............ ... ... ... −4 .. −2 2 .. ...4 6 8.. . .. . ... −1 ... .... .. ......... . . . . . . ..................... ...... ........... ................ .........

............. 10

12

−4 I

II

III

Abbildung 3.1: Zeilenkreise und die Spaltenkreise stellen sich folgendermaßen dar: Zeilenkreise |z − 0| ≤ 3 |z − 3| ≤ 0.3 |z − 6| ≤ 2.3 |z − 10| ≤ 0.3

Spaltenkreise |z − 0| ≤ 0.6 |z − 3| ≤ 2 |z − 6| ≤ 1.3 |z − 10| ≤ 2

Wir zeigen das Ergebnis in drei Skizzen, die Zeilenkreise in der Abbildung 3.1. Wir finden drei zusammenhängende Bereiche I, II, III. Die Menge I wird von zwei Kreisen gebildet, also liegen auch genau zwei Eigenwerte in ihr. Aus demselben Grund liegen in II und in III jeweils genau ein Eigenwert. Die Spaltenkreise betrachten wir in der Abbildung 3.2. 3

−4

......................... ..... ... .................... . . 1 ... ..... ............. ... ... ... ... ... ........ ....... .. 2 −2 4 .... 6 ... . .. . .... −1 ........ .......... .............. ............

........ ......... ............ ... ..... ... .... . 8... .. .... 10 ....12 ........ ....... ............

−3

IV

Abbildung 3.2: Spaltenkreise

V

VI

3.2 Eigenwert–Abschätzung

143

Wiederum finden wir drei zusammenhängende Bereiche IV, V, VI. In IV liegt genau ein Eigenwert, in V liegen genau zwei und in VI liegt genau ein Eigenwert. Damit könnten wir bereits eine Abschätzung angeben. Wir können diese aber noch wesentlich verbessern durch Betrachtung des Durchschnitts beider Kreismengen in Abbildung 3.3. 4 2  −4

−2

−4

I

8

h 10

IV

V

f

2

4

6

III

II

12

Abbildung 3.3: Durchschnitte Dieser Durchschnitt besteht aus fünf zusammmenhängenden Bereichen. I und V enthalten, wie wir schon wissen, jeweils genau einen Eigenwert. Übertragen wir die Kenntnis von oben hierher, so folgt, dass II und III jeweils genau einen Eigenwert enthalten und IV leider leer ausgeht, weil es nun mal höchstens vier Eigenwerte gibt. Als krönenden Abschluß dieser Überlegung packen wir jetzt noch hinzu, dass nichtreelle Eigenwerte stets paarweise konjugiert komplex auftreten, also symmetrisch zur x-Achse liegen. Deshalb sind also hier alle vier Eigenwerte reell. So kommen wir zu den Abschätzungen: −0.6 1 3.7 9.7

≤ ≤ ≤ ≤

λ1 λ2 λ3 λ4

≤ ≤ ≤ ≤

0.6 3.3 7.3 10.3

Vergleichen wir wieder mit den exakten Eigenwerten: λ1 = 0.0413, λ2 = 3.0548, λ3 = 5.8355, λ4 = 10.0684. Aufgabe 3.6 Gegeben sei die folgende Matrix A:   −4 −0.5 −0.5 2 10 −0.3 2   0.1 A= 0.2 −0.8 0 0 1 1 0 3 Geben Sie nach Gerschgorin eine möglichst optimale Abschätzung der Eigenwerte an. Zeichnen Sie dazu Handskizzen, und begründen Sie, welche Eigenwerte reell sind.

144

3 Matrizeneigenwerte

Lösung: Betrachten wir zunächst die Zeilenkreise (vgl. Abbildung 3.4). (I) (II) (III) (IV )

|z − (−4)| |z − 10| |z − 0| |z − 3|

≤ ≤ ≤ ≤

| − 0.5| + | − 0.5| + |2| |0.1| + | − 0.3| + |2| |0.2| + | − 0.8| + 0 |1| + |1| + 0

= 3 = 2.4 = 1 = 2

4

.............................. ..... ....... . ............................ . . ... ...... ........................... .... . . . ...  .. .. . . ... . ... ... 1 .... . . ... . ... ... .. .. .. . ... . . ... −6 −5 −4 −3 −2 −1 −8 −7 1.... 2 3 4 ..5. 6 7 ....8 9 10 11 12... 13 ... .... . ... .. −1 . . .... .. ......... .......... .... ....... ... ... ........ . . . ...... . . . . . . . . . . . . . ........... ........... ............. ......... I

−4 III

IV

II

Abbildung 3.4: Zeilenkreise

Für die Spaltenkreise erhalten wir (vgl. Abbildung 3.5): (V ) (V I) (V II) (V III)

|z − (−4)| |z − 10| |z − 0| |z − 3|

≤ ≤ ≤ ≤

|0.1| + |0.2| + |1| | − 0.5| + | − 0.8| + |1| | − 0.5| + | − 0.3| + 0 |2| + |2| + 0

......................... ........... ....... . . . . . . ..... .. . . . .... ..... ... .. '$ ... .. ... 1 ... .... . ... −8 −7 −6 −5 −4 −3 −2 −1 1 2 3 4 5 6 .7. . ... −1 . &% ... .. . .... . .. ..... .... . ....... . . . . ............. .............. ..........

= 1.3 = 2.3 = 0.8 = 4

4

V

−4 VII

Abbildung 3.5: Spaltenkreise

VIII

..... .......... ............... ...... ... ... . .. ... ... .. . ..8. 9 10 11 12 . 13 . .... .... ........ ...................... VI

3.2 Eigenwert–Abschätzung

145

An der Abbildung erkennt man, dass genau ein Eigenwert in V und genau einer in V I liegt. Da die Matrix A zwar nicht symmetrisch ist, aber nur reelle Koeffizienten hat, treten komplexe Eigenwerte stets paarweise konjugiert auf. In V und V I liegt also je ein reeller Eigenwert. Wir erhalten unmittelbar unsere ersten Abschätzungen:

V :

−5.3 ≤ λ1 ≤ −2.7,

VI :

7.7 ≤ λ4 ≤ 12.3

In V III liegen genau zwei Eigenwerte, da ja genau zwei Kreise dieses Gebiet bilden. Entweder sind beide reell oder sie sind zueinander konjugiert komplex. In I ∪ III ∪ IV liegen nach derselben Überlegung genau drei Eigenwerte, außerhalb liegt nur noch in V I genau einer. Zur weiteren Untersuchung bilden wir die Schnittmenge aus den Zeilen– und Spaltenkreisen (vgl. Abbildung 3.6). 4 .................................... ....... ...... . . . . . . . . . . . . . . . . . . . . . . ......... .... . .... . . . . . . . . ... . . . ..... .. . . . . . . . . . . ... . . . . . . . . . . . ...... '$ . ... . . . . . . . . .... ... .. .... .1 . ... . ... ... ....  . . .. .. .. ... . ... . . . .. −8 −7 1... 2 3 4 .5. 6 .7.  ... −6 −5 −4 −3 −2 −1 ...−1 . . . . ..... ... &% . .. .. ........................... .... .. ..... . . . ...... . . .... .. .................................. ...... .... . . . . ........ . .................................. −4

......... ......... ............... ...... ......... ..... ...... ...... ..... . ......8 9 10 11 12...... 13 .... ....... ........ . ............................. ..

Abbildung 3.6: Durchschnitte

Hieraus sieht man, dass in dem Restgebiet (I ∪ III ∪ IV ) ∩ V III = III ∪ IV genau zwei Eigenwerte liegen, die demnach entweder beide reell oder zueinander konjugiert komplex sind. Für diese beiden Fälle müssen wir getrennt die Abschätzungen angeben: falls beide reell: −1 ≤ λ2 , λ3 ≤ 5, ¯2. falls beide komplex: |λ2 | ≤ 1 oder |λ2 − 3| ≤ 2 und λ3 = λ Die Güte unsere Abschätzung sieht man durch Vergleich mit den exakten Werten: λ1 = −4.2620, λ2 = −0.0431, λ3 = 3.0124, λ4 = 10.2927 Die Eingrenzung von λ2 und λ3 ist doch recht ungenau. Die Abschätzung mittels der Gerschgorin–Kreise kann also nur als grober Anhalt dienen. Vielleicht gelingt es so, einen Startwert für ein numerisches Verfahren zu gewinnen, und das hat doch schon was, oder?

146

3 Matrizeneigenwerte

3.3

Verfahren von Wilkinson und Householder

Aufgabe 3.7 Führen Sie die folgenden Matrizen

(i) mit dem Wilkinson–Verfahren,

(ii) mittels Householder–Transformationen

auf eine obere Hessenbergmatrix bzw. eine Tridiagonalmatrix zurück:    20 −2 3 −7 1.1 2.2 3.3 4.4  −2 2 1 4   5.5 6.6 7.7 8.8  (a) A =  , (b) A =  , 3 1 3 1 9.9 0 1.1 2.2  −7 4 1 5 3.3 4.4 5.5 6.6 

 1 4 2 −3 2 4 3 1 (c) A =  . 0 −4 −1 0  0 3 −1 5 

Lösung: Das Ziel beider Verfahren besteht darin, die gegebene (n × n)–Matrix A durch Ähnlichkeitstransformationen auf Hessenberg–Form zu bringen.

Hessenbergform einer Matrix   h11 h12 · · · · · · · · · h1n  h21 h22 h23 · · · · · · h2n     0 h32 h33 h34 · · · h3n    . ..  .. H=  .. . . . . . . . . .  . .    .. . . . . .. .. .. ..   .  0 · · · · · · 0 hn,n−1 hnn

Wir setzen A(0) := A und nehmen an, dass Aj−1 für ein j = 1, . . . , n − 2 bereits eine

3.3 Verfahren von Wilkinson und Householder

147

Matrix ist, deren erste j − 1 Spalten Hessenberggestalt haben:   ∗ ··· ··· ∗ ∗ ∗ ··· ∗  .. .. .. .. ..  ∗ . . . . .    . . . . ..  .  0 . . . . .. .. .. .    .. . . . . .. .. ..  Aj−1 =  . . ∗ . . . . .  0 ··· 0 ∗ ∗ ∗ ··· ∗     0 ··· ··· 0 ∗ ∗ ··· ∗    . .. .. ..   .. . . . 0 ··· ··· 0 ∗ ∗ ··· ∗

Verfahren von Wilkinson Bestimme A(j) wie folgt: (i) Bestimme den Zeilenindex q so, dass (j−1)

|aqj

|=

max

j+1≤µ≤n

(j−1)

|aµj

|

(ii) Falls q 6= j + 1, so vertausche (j + 1)–te Zeile und Spalte mit q–ter Zeile und Spalte: A(j−1) → Ej+1,q · A(j−1) · Ej+1,q =: B (j−1) (j−1)

(iii) Ist bj+1,j = 0, dann gehe zum nächsten Schritt, sonst bestimme die Matrix Cj+1 

 .  ..       1 0   =  0 c 1 j+2,j+1     .. . .  . 0 .  cn,j+1 1

Cj+1

mit ci,j+1 =

 

(j−1)

bij

(j−1)

bj+1,j





1

0

(j−1)

falls bj+1,j 6= 0

,

sonst

und berechne damit: −1 A(j) = Cj+1 · B (j−1) · Cj+1

i = j + 2, . . . , n,

148

3 Matrizeneigenwerte

Zu (a) Wir starten mit Wilkinson, setzen A = A(0) und bestimmen im ersten Schritt A(1) . Im ersten Teilschritt führen wir Spaltenpivotisierung durch: (i) q = 4, denn −7 ist das betraglich größte Element unterhalb des ersten Diagonalelementes. (ii) Also tauschen wir die 2. Zeile und 2. Spalte gegen die 4. Zeile und 4. Spalte. Die Permutationsmatrix, die solches leistet, ist: 1 0 = 0 0 

E24

0 0 0 1

0 0 1 0

 0 1 . 0 0

Mit ihr entsteht die Matrix:  20 −7 3 −2  −7 5 1 4  = 3 1 3 1 −2 4 1 2 

B (0) = E24 · A(0) · E24

(iii) Im dritten Teilschritt berechnen wir die Matrix C2 , die uns unterhalb des Pivotelementes Nullen erzeugt. Matrizen dieser Form haben einen besonderen Namen: Frobeniusmatrix Eine Matrix der Form



Cj+1



1

  ..   .     1 0   =  0 c 1 j+2,j+1     .. . .  . 0 .  cn,j+1 1

heißt Frobeniusmatrix. Die Frobeniusmatrizen sind nichtsingulär, haben also den vollen Rang, und ihre Inverse berechnet sich leicht zu:   1   ..   .     1 0 −1  Cj+1 =  0 −cj+2,j+1 1      .. .  . 0 ..  −cn,j+1

1

3.3 Verfahren von Wilkinson und Householder

149

(0)

Wegen b21 = −7 6= 0 erhalten wir deren Elemente mit der Rechnung: (0)

(0)

ci2 = bi1 /b21 

1 0 0 1 C2 =   0 −3 7 0 27

0 0 1 0

i>2

  0 1 0  0  ⇒ C −1 =  0 31 2 0 0 7 1 0 − 27

0 0 1 0

 0 0  0 1

Damit berechnen wir nun durch einfache Matrizenmultiplikation: 20  −7 −1 (0) = C2 · B · C2 =  0 0 

A(1)

 −8.8571 3 −2 5.71428 1 4  2.44897 3.42857 2.714285  2.5102 0.71428 0.85714

Dieses war der erste Schritt. Der zweite Schritt, der zugleich der letzte ist, bringt nichts (1) Neues mehr, wir haben uns lediglich noch um das Element a42 = 2.5102 zu kümmern. Um es zu Null zu machen, müssen wir zunächst wegen der Pivotwahl die dritte Zeile und Spalte mit der vierten Zeile und Spalte vertauschen und anschließend die zugehörige Frobeniusmatrix berechnen:   1 0 0 0 0 0 0 1 C3 =  . 0 0 1 0 0 0 0.97561 1 Wir erhalten als Endergebnis die folgende zur Ausgangsmatrix A ähnliche Hessenbergmatrix:   20 −8.8571 0.9268 3 1   −7 5.7143 4.9756 A(2) =  . 0 2.5102 1.5540 0.7143  0 0 4.5431 2.7317 Wie man sieht, ist die Symmetrie der Ausgangsmatrix verlorengegangen. Das ist einer der wesentlichen Unterschiede zum Verfahren von Householder, welches die Symmetrie erhält und somit auf eine Tridiagonalmatrix führt.

150

3 Matrizeneigenwerte

Versuchen wir uns nun an derselben Matrix mit Householder.

Verfahren von Householder Bestimmen A(j) wie folgt: Falls aj+2,j = · · · = anj = 0, so nächster Schritt (j → j + 1). qP (j−1)2 (j−1) n , t = aj+1,j , c = (s + |t|) · s (i) s := i=j+1 aij (ii) Berechne den Vektor ω ~ (j) gemäß: (j)

ωi

(j) ωj+1 (j)

ωi

(i = 1, . . . , j),

= 0

 = t + s · σ(t), mit (j−1)

= aij

σ(t) =

1 t≥0 −1 t < 0

(i = j + 2, . . . , n),

(iii) Bestimme dann die Transformationsmatrix P (j) aus: 1 (j) (j)> P (j) = E − ω ~ ·ω ~ c und berechne damit (beachte (P (j) )−1 = P (j) ): A(j) = P (j) · A(j−1) · P (j)

A ist voll besetzt, also starten wir mit j = 1 und stellen fest: q p √ Pn (0) 2 (i) s = (−2)2 + 32 + (−7)2 = 62 6= 0. i=2 (ai1 ) = (0)

Setze t = a21 = −2,

√ √ c = (s + |t|) · s = ( 62 + 2) 62 = 77.748.

(ii) Wegen σ(t) = −1 berechnet sich der Vektor ω wie folgt:

   (1) 0  ωi = 0, i = 1, . . . , j = 1   −9.874  (1) (1) ~ (1) =  ωj+1 = t + s · σ(t) = ω2 = −9.874 ⇒ ω . 3   (1) (0) ωi = ai1 , i = j + 2, . . . , n −7 Nun ist unsere Ausgangsmatrix symmetrisch. Für diesen Fall vereinfacht sich die weitere Rechnung und führt zu folgendem Algorithmus:

3.3 Verfahren von Wilkinson und Householder

151

Verfahren von Householder (A symmetrisch) Bestimme A(j) wie folgt: Falls aj+2,j = · · · = anj = 0, so nächster Schritt (j → j + 1). qP (j−1)2 (j−1) n (i) s := , t = aj+1,j , c = (s + |t|) · s i=j+1 aij (ii) Berechne den Vektor ω ~ gemäß: (j)

ωi

(i = 1, . . . , j),

= 0



(j)

ωj+1 = t + s · σ(t) mit σ(t) = (j)

ωi

(j−1)

= aij

1 t≥0 −1 t < 0

(i = j + 2, . . . , n),

(iii) Bestimme dann die Matrix A(j) nach den Formeln: 1 (j−1) (j) A ω ~ c 1 (j) (j) > (j) = ~u(j) − ω ~ (~ ω ) ~u 2c = A(j−1) − ~v (j) (~ ω (j) )> − ω ~ (j) (~v (j) )>

~u(j) = ~v (j) A(j)

Diese Formeln vereinfachen sich auch dadurch noch, dass (~ ω (j) ·(~v (j) )> )> = ~v (j) · (~ ω (j) )> ist, was in der letzten Zeile prächtig ausgenutzt werden kann. So folgt nun:

   77.748 1 1  −44.748   −0.5756  = · = , −7.874   −0.1013  77.748 −71.496 −0.9196   0 0 0 0  0 97.4959 −29.622 69.118  =  , 0 −29.622 9 −21  0 69.118 −21 49       1 0 1 1  −116.6739   0.1748   −0.5756  =  − = , −0.1013  2c  35.4488   −0.3292  −0.9196 −82.7139 −0.3877 

~u(1)

ω ~ (1) · (~ ω (1) )>

~v (1)

>

152

3 Matrizeneigenwerte    0 −9.874 3 −7  0 −1.7258 0.5243 −1.2235    = A(0) −  − 0 3.2510 −0.9877 2.3047    0 3.8277 −1.1630 2.7136   20 7.8740 0 0  7.874 5.4516 −2.7753 1.3958  =  . 0 −2.7753 4.9755 −0.1418  0 1.3958 −0.1418 −0.4271 

A(1)

An der Stelle der leeren Matrix denke man sich die transponierte der links daneben stehenden Matrix. Damit ist wiederum Schritt 1 getan. Hier erkennt man deutlich, dass die Symmetrie erhalten bleibt. Zum Vergleich für denjenigen, der mit dem Originalverfahren die Householdertransformationsmatrix ausgerechnet hat, liefern wir hier unsere Ausrechnung, bei der ein Computer ein klein wenig geholfen hat:  1.0000 0.0000 0.0000 0.0000  0.0000 −0.2540 0.3810 −0.8890  = . 0.0000 0.3810 0.8842 0.2701  0.0000 −0.8890 0.2701 0.3697 

P (1)

Vom nächsten (und zugleich letzten) Schritt geben wir als Ergebnis nur die Householdermatrix P und die Hessenbergmatrix A(2) , die bei einem symmetrieerhaltenden Verfahren natürlich eine Tridiagonalmatrix ist, an, da die Durchrechnung zu keinen neuen Erkenntnissen führt:   1.0000 0.0000 0.0000 0.0000  0.0000 1.0000 0.0000 0.0000  P (2) =  , 0.0000 0.0000 −0.8934 0.4493  0.0000 0.0000 0.4493 0.8934   20.000 7.8740 0.0000 0.0000  7.8740 5.4516 3.1066 0.0000  A(2) =  . 0.0000 3.1066 3.9986 −2.0841  0.0000 0.0000 −2.0841 0.5497 Offensichtlich entstehen also unterschiedliche Hessenbergmatrizen nach den beiden hier behandelten Verfahren, wobei die Erhaltung der Symmetrie beim Householderverfahren zu beachten ist. Zu (b) Die vorgelegte Matrix ist im Unterschied zu (a) nicht symmetrisch. Wir werden also beide Male die Originalalgorithmen durchziehen.

3.3 Verfahren von Wilkinson und Householder

153

Beginnen wir wieder mit Wilkinson: (i) 9.9 ist das betragsgrößte Element, also tauschen wir flugs die 2. Zeile und 2. Spalte mit der 3. Zeile und 3. Spalte. Wir erhalten die Matrix   1.1 3.3 2.2 4.4  9.9 1.1 0 2.2  B (1) =  . 5.5 7.7 6.6 8.8  3.3 5.5 4.4 6.6 (0)

Da b21 = 9.9 6= 0, erhalten wir die Frobeniusmatrix:   1 0 0 0 0 1 0 0 C2 =  . 0 5/9 1 0  0 3/9 0 1 Die inverse Matrix gewinnen wir wieder nur durch Vorzeichenwechsel der Elemente außerhalb der Diagonalen, und die Matrizenmultiplikation A(1) = C2−1 ·B ·C2 (ist langweilig und) führt zum Ergebnis:   1.1 5.9889 2.2 4.4 2.2   9.9 1.8333 0 A(1) =  0 13.2815 6.6 7.5778  0 9.5333 4.4 5.8667 Der zweite Schritt bringt dann die vollständige Hessenbergmatrix:   1.1 5.9889 5.3583 4.4 2.2   9.9 1.8333 1.5791 A(2) =  . 0 13.2815 12.039 7.5778  0 0 −0.0306 0.4274 Entwickeln wir nun für diese Matrix eine zu ihr ähnliche Hessenbergmatrix mit dem Verfahren von Householder: Die Matrix ist vollbesetzt, also starten wir mit j = 1: (i) v u X p u n (0) s=t (aij )2 = 5.52 + 9.92 + 3.32 = 11.796 6= 0, i=j+1 (0)

t = a21 = 5.5,

c = (s + |t|)s = 204.029.

(ii) (1)

ωi

= 0, i = 1, . . . , j = 1,

(1) ω2 (1) ωi

= t + s · σ(t) = 5.5 + 11.796 = 17.296, (0)

= ai1 ,

i = j + 2, . . . , n.

154

3 Matrizeneigenwerte

Damit erhalten wir: ω ~ (1) ) = (0, 17.296, 9.9, 3, 3)> . (iii) Wir listen die weiteren Zwischenergebnisse nur noch auf, das einfache Nachrechnen überlassen wir dem Leser:  0 0 0 0  0 299.15 171.23 57.076  =  , 0 171.23 98.01 32.67  0 57.076 32.67 10.89   1 0 0 0 1  0 −0.4662 −0.8392 −0.2797  = E− ω ~ ·ω ~> =  , 0 −0.8392 0.5196 −0.1601  c 0 −0.2797 −0.1601 0.9466   1.1 −5.0261 −0.8361 3.0213  −11.79 9.2681 1.7190 −5.2052  = P (1) A(0) P (1) =  . 0 10.6355 2.8901 −4.6785  0 −4.4555 −1.0013 2.1424 

ω ~ ·ω ~>

P (1)

A(1)

Der zweite Schritt bringt dann nach derselben Melodie bereits das Endergebnis: 1 0 =  0 0  

P (2)

A(2)

 0 0 0 1 0 0  , 0 −0.9223 0.3864  0 0.3864 0.9223

 1.1 −5.0262 1.9386 2.4635  −11.796 9.2687 −3.5969 −4.1368  =  . 0 −11.531 4.5887 3.0532  0 0 −0.0240 0.4426

Zu (c) Die Matrix A hat ja fast Hessenberggestalt. Lediglich das Element a42 = 3 muss noch zu 0 gemacht werden. Das bedeutet aber zugleich, dass beide Verfahren schon für j = 1 erledigt sind und wir gleich zum Schritt j = 2 übergehen können. Verfahren von Wilkinson: Hier ist eine Spaltenpivotisierung nicht erforderlich, denn |a32 | = | − 4| > |a42 | = 3. Wir bestimmen daher sofort die Transformationsmatrix C: c43 =

a42 3 = = −0.75. a32 −4

Damit lautet C 1 0 C= 0 0 

0 0 1 0 0 1 0 −0.75

 0 0 . 0 1

3.4 QR–Verfahren

155

Dies ist eine sogenannte Frobeniusmatrix, deren Inverse ja durch schlichten Vorzeichentausch in den Außerdiagonalelementen entsteht. Wir überlassen die leichte Ausrechnung dem fleißigen Leser und geben lediglich das Endergebnis an: 

A(2)

 1 4 17 4 −3 9 2 4 1  4 =  0 −4 −1 0  . 0 0 − 11 5 2

Verfahren von Householder: Auch hier reicht es, wenn wir den Householder–Algorithmus lediglich für j = 2 durchführen. qP √ (j−1) 2 n s= ) = 16 + 9 = 5, i=j+1 (aij (j−1)

t = aj+1,j = −4,

1 0 = 0 0 

P (2)

c = (s + |t|)s = (5 + 4)5 = 45, ω ~ = (0, 0, −9, 3)> , 0 1 0 0

0 0 1 0

    0 0 1 1  0 0 0 − · · (0, 0, −9, 3) =  0  45  −9  0 1 3 0

 0 0 0 1 0 0 . 0 −0.8 0.6  0 0.6 0.8

Dann ist A(2) = P (2) · A(1) · P (2) die gesuchte Hessenbergmatrix, die ähnlich zu A = A(0) ist, da P (2) = (P (2) )−1 . Wir geben wiederum nur das Ergebnis an. 1 2 = 0 0 

A(2)

3.4

4 4 5 0

 −3.4 −1.2 −1.8 2.6  . 1.64 2.52  3.52 2.36

QR–Verfahren

Aufgabe 3.8 Zeigen Sie: Ist A eine orthogonale Matrix mit dem Eigenwert λ0 , so ist auch λ−1 0 Eigenwert von A. Lösung: Wie wir uns auf Seite 86 überlegt haben, ist A als orthogonale Matrix regulär. Dann ist aber auch 0 kein Eigenwert von A. Oder anders ausgedrückt: Jeder Eigenwert von A ist garantiert 6= 0, wir können also hemmungslos durch ihn dividieren. Aus der Eigenvektorgleichung

156

3 Matrizeneigenwerte A~x = λ0 ~x mit ~x 6= 0, λ0 6= 0

folgt dann A> A~x = λ0 · A> ~x



~x = λ0 · A> ~x



A> ~x =

1 · ~x λ0

Dies ist aber gerade die Eigenvektorgleichung zur Matrix A> und dem Eigenwert Aber da die Eigenwerte von A> mit den Eigenwerten von A übereinstimmen

1 λ0 .

(det(A> − λE) = det(A> − λE > ) = det(A − λE)> = det(A − λE)) ist

1 λ0

auch Eigenwert von A.

Aufgabe 3.9 Stellen Sie die Formeln zum vollständigen Ablauf des QR–Algorithmus mit Shift zur Berechnung sämtlicher Eigenwerte einer Matrix A auf. Lösung: Der Originalalgorithmus wurde 1961 von J. G. F. Francis vorgeschlagen. Danach berechnet man einen QR–Schritt nach folgendem Schema, das wir auf Seite 156 vorstellen. QR–Schritt (A) Setze A(0) := A. (B) Zerlege für k = 0, 1, . . . die Matrix A(k) in das Produkt einer orthogonalen Matrix Q(k) und einer oberen Dreiecksmatrix R(k) mit A(k) = Q(k) · R(k) . Diese Zerlegung lässt sich bekanntlich für alle quadratischen Matrizen durchführen. (C) Berechne A(k+1) = R(k) · Q(k) = (Q(k) )−1 · A(k) · Q(k) Dies ist offensichtlich eine Ähnlichkeitstransformation. Damit sind also die Eigenwerte von A(k+1) dieselben wie die der Matrix A(k) und daher wie die der Matrix A. Leider lässt sich für dieses einfache Vorgehen höchstens spekulieren, wie sich die Matrizen A(k) verändern, so dass man vielleicht leichter ihre Eigenwerte bestimmen kann. Dazu muss man dem Verfahren einen geeigneten Touch mitgeben, um eine einfachere Form von A(k) zu erreichen. Der Pfiff liegt in der Verwendung eines Shifts. Den vollständigen Algorithmus findet man im Kasten auf Seite 157.

3.4 QR–Verfahren

157

QR–Verfahren (A) Überführe A in Hessenbergmatrix. (B) Setze A(0) := A. (I) Bestimmung des Shifts: (α) σ = ann

‘Rayleigh-Shift’.   an−1,n−1 an−1,n (β) σ der Eigenwert von , der näher an ann liegt, an,n−1 ann ‘Wilkinson–Shift’. e = A − σ · E. (II) Shiftausführung: A e = Q · R. (III) QR–Zerlegung: A e(1) = R · Q = Q−1 · A e · Q. (IV) Berechne A e(1) + σ · E. (V) Rückwärtsshift: A(1) = A Wiederhole Schritte (I) bis (V) solange (das führt zu A(2) , A(3) , . . .), bis an,n−1 ≈ 0 ist. Damit ist die Hessenbergmatrix A durch Ähnlichkeitstransformationen übergeführt worden in eine zerlegbare Matrix:   a11 · · · · · · ··· a1,n−1 a1n   .. ..  a21 . . .  . .     . . .. ..  0 ... ...  A→   . .  . . . . .. .. .. .. ..  ..     0 · · · 0 an−1,n−2 an−1,n−1 an−1,n  0 ··· 0 0 0 an,n (C) Führe die Schritte (I) bis (V) mit der ((n − 1) × (n − 1))–Hessenbergmatrix solange durch, bis das Element an−1,n−2 ≈ 0 ist. (D) Anschließend die Schritte (I) bis (V) auf die weiteren, jeweils um eine Zeile und Spalte kleiner werdenden Matrizen anwenden, bis schließlich eine Dreiecksmatrix entstanden ist, in deren Diagonale dann natürlich die gesuchten Eigenwerte stehen.

158

3 Matrizeneigenwerte

Wir stellen noch ein paar wichtige Aussagen für das QR–Verfahren zusammen:

Eigenschaften der QR–Zerlegung Die QR–Zerlegung einer Hessenbergmatrix oder einer symmetrischen tridiagonalen Matrix der Ordnung n ist mit n − 1 Rotationsmatrizen oder n − 1 Householdertransformationen durchführbar. Die QR–Transformierte einer Hessenbergmatrix ist wieder eine Hessenbergmatrix. Die QR–Transformierte einer symmetrischen tridiagonalen Matrix ist wieder symmetrisch und tridiagonal.

Aufgabe 3.10 Begründen Sie an Hand des Rechenaufwandes, warum es dringend geboten ist, vor der eigentlichen Durchführung des QR–Algorithmus eine Rückführung der gegebenen Matrix auf Hessenberggestalt bzw. einer symmetrischen Matrix auf Tridiagonalgestalt durchzuführen, Schritt (A) unseres Algorithmus. Lösung: Zur Abschätzung des Aufwandes betrachtet man üblicherweise die sogenannten wesentlichen Operationen, und das sind die Multiplikationen und die Divisionen. Das Ziehen von Quadratwurzeln wollen wir extra zählen. Das Vernachlässigen der Additionen und Multiplikationen wird damit begründet, dass bei allen Verfahren deren Anzahl in etwa gleich der Zahl der Multiplikationen und Divisionen ist. Dann hängt es von der verwendeten Rechenmaschine ab, wie schnell eine Addition im Unterschied zu einer Multiplikation ausgeführt wird. Kennt man die Zahl der wesentlichen Operationen, so kann damit leicht auf die gesamte Rechenzeit geschlossen werden. Die Anzahl der wesentlichen Operationen stellen wir im folgenden Kasten zusammen:

Anzahl der wesentlichen Operationen Verfahren Mult. + Div. Quadratw. 5 3 2 Wilkinson −− 6 n + O(n ) 5 3 2 Householder, bel. Matrix n + O(n ) n −2 3 Householder, symm. Matrix 23 n3 + O(n2 ) n−2 QR, bel. Matrix 15n3 + O(n2 ) n−1 QR, Hessenbergmatrix 4n2 + O(n) n−1 QR, Hess., Wilk.–Shift 8n2 + O(n) 2n − 3 QR, Tridiag. Matrix 15(n − 1) n−1

3.4 QR–Verfahren

159

Bei größeren Matrizen fällt der Faktor n3 natürlich stark ins Gewicht. Daher ist es sinnvoll, zunächst für eine Matrix einmal ein Verfahren mit n3 wesentlichen Operationen zu durchlaufen, um anschließend beim eigentlichen Iterieren nur noch jeweils n2 wesentliche Operationen ausführen zu müssen.

Aufgabe 3.11 Berechnen Sie für folgende Matrix sämtliche Eigenwerte mit dem QR– Verfahren (vgl. Aufgabe 3.7 auf Seite 146):  20 −2 3 −7  −2 2 1 4  A= , 3 1 3 1 −7 4 1 5 

Lösung: Hier können wir schon gut auf die Vorarbeit in Aufgabe 3.7 zurückgreifen; denn dort wurde diese Matrix ja bereits auf Hessenberggestalt gebracht, was im QR–Algorithmus als dringender erster Schritt angeraten wird. Wir starten mit der folgenden zu A ähnlichen Hessenbergmatrix, die wir auf Seite 152 mit dem Householderverfahren gewonnen haben: 20.000  7.8740 = 0.0000 0.0000 

A(0)

 7.8740 0.0000 0.0000 5.4516 3.1066 0.0000  . 3.1066 3.9986 −2.0841  0.0000 −2.0841 0.5497

Wir schildern zuerst das originale Vorgehen von Francis, also die Durchführung ohne Shift, wie wir es auf Seite 156 vorgeschlagen haben. Die QR–Zerlegung führen wir gemäß den Formeln im Kapitel ’Lineare Gleichungssysteme’ Seite 88 durch. Zuerst muss das Element a21 = 7.874 zu 0 gemacht werden. Wir erhalten: s=

p

400 + 7.8742 = 21.4942

und damit die Koeffizienten des Vektors ω ~ s   1 20 1+ = 0.9824671, ω2 = 0.1864, ω3 = ω4 = 0. ω1 = 2 21.4942 Daraus berechnet sich die erste Householdermatrix zu  −0.9306 −0.3663 −0.3663 0.9305  P (1) = E − 2 · ω ~ ·ω ~> =  0.0000 0.0000 0.0000 0.0000

0.0000 0.0000 1.0000 0.0000

 0.0000 0.0000  . 0.0000  1.0000

160

3 Matrizeneigenwerte

Damit ergibt sich eine Zwischenmatrix mit a21 = 0:  −21.4963 −9.3244 −1.1379 0.0000 0.0013 2.1887 2.8907 0.0000   = . 0.0000 3.1066 3.9986 −2.0841  0.0000 0.0000 −2.0841 0.5497 

A(1) = P (1) · A(0)

Die nächste Householdermatrix, die das Element a32 zum Verschwinden bringt, geben wir zugleich mit der dritten Householdermatrix, die a43 zu Null macht, an:

P (2)

 1.0000 0.0000 0.0000 0.0000  0.0000 −0.5758 −0.8176 0.0000  = , 0.0000 −0.8176 0.5758 0.0000  0.0000 0.0000 0.0000 1.0000

P (3)

1.0000  0.0000 = 0.0000 0.0000





 0.0000 0.0000 0.0000 1.0000 0.0000 0.0000  . 0.0000 −0.0291 −0.9996  0.0000 −0.9996 0.0291

Multiplikation der obigen Zwischenmatrix von links mit diesen beiden Matrizen ergibt bereits die Matrix R:   −21.4942 −9.3237 −1.1380 0.0000 0.0000 −3.7999 −4.9337 1.7039   A(3) = R(1) =  . 0.0000 0.0000 2.0850 −0.5145  0.0000 0.0000 0.0000 1.2156 Die Matrix Q ist das Produkt der Householdermatrizen, wobei die Reihenfolge zu beachten ist, denn es gilt: P (3) · P (2) · P (1) · A = R(1) ⇒ A = (P (1) )> · (P (2) )> · (P (3) )> · R, also erhalten wir wegen der Symmetrie der Householdermatrizen Q(1) = P (1) · P (2) · P (3)   −0.9305 0.2109 −0.0087 −0.2994  −0.3663 −0.5358 0.0221 0.7604  =  0 −0.8176 −0.0168 −0.5756  0 0 −0.9996 0.0291 Damit kann nun der erste QR–Schritt abgeschlossen werden:  23.4155 1.3920 0.0000 0.0000  1.3920 6.0696 −1.7046 0.0000  = . 0.0000 −1.7046 0.4794 1.2150  0.0000 0.0000 1.2150 0.0354 

A(1) = R(1) · Q(1)

3.4 QR–Verfahren

161

Diese Matrix ist ähnlich zur Ausgangsmatrix, besitzt also dieselben Eigenwerte, und sie hat Tridiagonalgestalt, wie behauptet. Für das Element a43 = 1.2150 gilt (1)

(0)

|a43 | = 1.2150 < |a43 | = | − 2.0841| = 2.0841. Jetzt muss der Apparat von neuem anlaufen, also wieder Householdermatrizen bestimmen usw. Da zeigt sich schnell ein Nachteil dieses einfachen Vorgehens. Selbst nach 100 Schritten ist das Element a43 noch nicht Null. Die Konvergenz ist zu langsam. Eine wesentliche Beschleunigung erlangt man mit Einbau eines Shift. Zwei der gebräuchlichsten Shifts sind im Kasten auf Seite 157 genannt worden. Beim Rayleighshift (σ = 5) wird im ersten Schritt die Matrix betrachtet:   15 −2 3 −7 −2 −3 1 4  e=A−σ·E = A  3 1 −2 1  . −7 4 1 0 e(1) gebildet. Der Diese wird QR–zerlegt und daraus nach obigem Muster die Matrix A Shift muss dann wieder auf die Diagonale draufaddiert werden, bevor der neue Shift subtrahiert wird usw. Beim Wilkinsonshift berechnet man von der folgenden (2 × 2)–Matrix zuerst die Eigenwerte:   3 1 ⇒ λ1 = 2.5858, λ2 = 5.4142. 1 5 Den näher beim Element a44 = 5 liegenden Eigenwert benutzen wir zum Shiften. Wir berechnen also die QR–Zerlegung der Matrix (σ = 5.4142):   14.5858 −2.0000 3.0000 −7.0000 −2.0000 −3.4142 1.0000 4.0000  e=A−σ·E = A  3.0000 1.0000 −2.4142 1.0000  . −7.0000 4.0000 1.0000 −0.4142 Wir schenken uns hier die Durchrechnung im einzelnen, sondern schildern lediglich, wie schnell die unterhalb der Hauptdiagonalen stehenden Elemente gegen Null konvergieren. Rayleigh–Shift a43 −7.7342 · 10−1 1.0259 · 10−1 −1.9505 · 10−4 −1.3569 · 10−12 −4.5830 · 10−37 a32 −5.4405 · 10−6 −2.7724 · 10−18 a21 2.01746 · 10−13

Wilkinson–Shift −9.3766 · 10−1 −2.8142 · 10−2 −5.5627 · 10−8 −4.1956 · 10−26 5.3444 · 10−11 −1.0904 · 10−30 1.8380 · 10−29

162

3 Matrizeneigenwerte

Hier zeigt sich bereits der Vorteil des Wilkinson–Shifts; die Konvergenz geht erheblich schneller. Ganz wesentlich wird dieser Vorteil sichtbar beim Auftreten von komplexen Eigenwerten. Bei einer Matrix mit reellen Elementen bleibt mit dem Rayleigh–Shift die gesamte Rechnung im Reellen, man wird also nie komplexe Eigenwerte annähern können. Beim Wilkinsonshift wird aber die kleine (2 × 2)–Matrix dann auch komplexe Eigenwerte besitzen. Über den Shift gelangt man also zur komplexen Rechnung.

3.5

Jacobi–Verfahren

Aufgabe 3.12 Stellen Sie die Formeln nach Jacobi zur Berechnung der Eigenwerte einer symmetrischen Matrix zusammen.

Lösung: Verfahren von Jacobi (1804 - 1851)

A0 := A, (n × n)-Matrix, symmetrisch −1

Ak := T (k) A(k−1) T (k) , k = 1, 2, 3, . . . mit p  1

T

(k)

=

     ···      ···     0

..

. ···

.. . .. .

c ··· .. . . . . · · · −s · · · .. . .. .

q .. . .. . s ··· .. . c ··· .. . . . . .. .

 0     ···      ···      1

p-te Zeile q-te Zeile

wobei s := sin ϕ, c := cos ϕ.

(k−1)

i) Wähle p,q so, dass apq A(k−1) ist.

das betragsgrößte Element oberhalb der Diagonale in

3.5 Jacobi–Verfahren

163

ii) Berechne sin ϕ und cos ϕ aus: aqq − app π π , − A˜(k) := T (k) · A(k−1)

(es ändern sich hierbei nur die p-te und die q-te Zeile!) A(k) = A˜(k) · T (k) (es ändern sich hierbei nur die p-te und q-te Spalte!) Wegen der Dreheigenschaften der Matrizen T (k) nennt man den bis hierher erfolgten Ablauf eine Jacobi–Rotation. Diese ist eine Ähnlichkeitstransformation. Nach Durchführung einer solchen steht, wenn keine Rundungsfehler auftreten, an der Stelle (p, q) in der Matrix eine 0. Das Verfahren wird fortgesetzt, indem man wieder bei i) beginnt. Nach Ablauf der nächsten Rotation ist zwar die zuvor mit Mühe erhaltene 0 wieder verschwunden, aber es sollte eine wesentlich kleinere Zahl dort stehen, wogegen an der jetzt gewählten Stelle (p, q) eine 0 steht. So fortfahrend, entsteht nach und nach eine Matrix, die außerhalb der Diagonale nur noch sehr kleine Zahlen hat, also gegen eine Diagonalmatrix konvergiert. Da alle Rotationen Ähnlichkeitstransformationen waren, hat diese Matrix dieselben Eigenwerte wie die ursprüngliche. Das sind dann gerade die Diagonalelemente. Aufgabe 3.13 Bestimmen Sie für folgende Matrizen sämtliche Eigenwerte nach dem Verfahren von Jacobi: 

 7 −2 0 A =  −2 6 −2  , 0 −2 5

 20 −7 3 −2  −7 5 1 4  B= 3 1 3 1 −2 4 1 2 

Lösung: Wir lösen die Aufgabe nach dem in Aufgabe 3.12 vorgezeigten Schema: Zur Matrix A:

164

3 Matrizeneigenwerte

Wir wählen p = 1, q = 2, da −2 das betragsgrößte Element außerhalb der Diagonale ist. cot 2ϕ =

t := (tan ϕ) =

aqq − app = 0.25, 2apq

sign(cot 2ϕ) 1 p √ = = 0.781, 2 0.25 + 1 + 0.252 | cot 2ϕ| + 1 + cot 2ϕ 1 = 0.7882, 1 + t2 sin ϕ = t · cos ϕ = 0.6154.

cos ϕ = √

Damit lautet die Drehmatrix 

T (1)

 0.7882 0.6154 0 =  −0.6154 0.7882 0  . 0 0 1 

>

A˜(1) := T (1)

 6.7483 −5.2689 1.2308 · A =  2.7315 3.4984 −1.5764  , 0 −2 5 

A(1) = A˜(1) · T (1)

 8.5616 0 1.2308 4.4384 −1.5764  . = 0 1.2308 −1.5764 5

Führt man den gleichen Schritt noch einmal durch, so folgt als Ergebnis die Matrix: 

A(2)

 8.5616 0.7903 0.9436 0 . =  0.7903 3.1180 0.9436 0 6.3204

Man sieht, dass zwar die im ersten Schritt erreichte Null an der Stelle a12 verlorengegangen ist, aber an dieser Stelle steht eine deutlich kleinere Zahl als vorher in der Ausgangmatrix. Nach endlich vielen Iterationen erreicht man eine Matrix, die nur noch in der Diagonale Werte ungleich Null hat. Da die Umformungen jeweils zu ähnlichen Matrizen führten, haben alle diese Matrizen dieselben Eigenwerte (ja sogar dasselbe charakteristische Polynom). In einer Diagonalmatrix sind aber bekanntlich die Diagonalelemente zugleich die Eigenwerte. Nach 10 Iterationen erhalten wir die Matrix:   8.999 0.000 0.000 A(10) =  0.000 3.000 0.000  , 0.000 0.000 5.999

3.5 Jacobi–Verfahren

165

aus der wir die gesuchten Näherungen für die Eigenwerte entnehmen: λ1 = 8.9999, λ2 = 3.000, λ3 = 5.999, was den exakten Werten schon beachtlich nahekommt: λ1 = 9, λ2 = 3, λ3 = 6. Bei 10–stelliger Rechnung würde man übrigens noch Abweichungen auch der erzeugten Nullen in den Plätzen außerhalb der Diagonale in der 8. Nachkommastelle entdecken. Zur Matrix B: Hier geben wir lediglich die Rechenergebnisse wieder: p = 1, q = 2, aqq − app cot 2ϕ = = 1.0714, 2apq 1 = 0.9303, 1 + t2 sin ϕ = t · cos ϕ = 0.3667,

cos ϕ = √

 21.1737 −8.3459 2.4243 −3.3275  0.8217 2.0848 2.0305 2.9879  ·B = , 3 1 3 1 −2 4 1 2 

˜ (1) := T (1)> B

 22.7591 0 2.4243 −3.3275 0 2.2409 2.0305 2.9879   = . 2.4243 2.0305 3 1 −3.3275 2.9879 1 2 

˜ (1) · T (1) B (1) = B

Nach 18 Iterationen erhalten wir die Matrix:   23.5274 0 0 0 0 6.4605 0 0   B (18) =  , 0 0 1.17305 0 0 0 0 −1.16095 in der die gesuchten Eigenwerte als Diagonalelemente auftreten. Aufgabe 3.14 Gegeben sei die Matrix   4 a 40 A =  a 0 5  , |a| < 1. 40 5 5

166

3 Matrizeneigenwerte

(a) In welchem Intervall liegen alle Eigenwerte von A? (b) Führen Sie eine Jacobi-Rotation zur näherungsweisen Bestimmung der Eigenwerte durch. Lösung: Zu (a) A ist symmetrisch, also sind alle Eigenwerte reell. Gerschgorin: |λ − 4| ≤ 40 + |a| ≤ 41 ⇒ −37 ≤ λ ≤ 45, |λ − 0| ≤ 5 + |a| ≤ 6 ⇒ −6 ≤ λ ≤ 6, |λ − 5| ≤ 45 ⇒ −40 ≤ λ ≤ 50, das heißt: −40 ≤ λ1 , λ2 , λ3 ≤ 50. Zu (b) Wähle p = 1, q = 3, da a13 = 40 größtes Nichtdiagonalelement. Damit gilt: cot 2ϕ =

aqq − app 5−4 1 = = (ϕ = 44.64o ), 2apq 80 80 sign (cot 2ϕ) p | cot 2ϕ| + 1 + cot2 2ϕ 1 q =  1 1 2 1 + 80 80 +

t =

1 = 0.9875782, 1.012578 1 1 cos ϕ = √ = 2 1.4054574 1+t = 0.711512, sin ϕ = t · cos ϕ = 0.7026738. =

Bilde T > · A · T mit 

   cos ϕ 0 sin ϕ 0.7115 0 0.7027 1 0 = 0 1 0 , T = 0 − sin ϕ 0 cos ϕ −0.7027 0 0.7115 

A˜(1) := T (1)

>

 −25.262 0.7115a − 3.5 24.95 a 0 5 , ·A= 31.27 0.7a + 3.5 31.7 

A(1) = A˜(1) · T (1)

 −35.49 0.7115a − 3.5 0.0017 0 0.7a + 3.6  . =  0.7115a − 3.5 0.00239 0.7027a + 3.558 44.5

3.5 Jacobi–Verfahren

167

Aufgabe 3.15 Führen Sie zur Lösung der Eigenwertaufgabe für folgende Matrix

 1 2 1 6 −3  2 3 −6 9 4    A =  1 −6 4 1 −2   6 9 1 −3 −7  −3 4 −2 −7 8 

einen Rotationsschritt nach dem Verfahren von Jacobi aus (ausführliche Zwischenergebnisse erforderlich).

Lösung: 9 ist das betraglich maximale Element außerhalb der Diagonale. Daher wählen wir p = 2, q = 4.

−3 − 3 1 =− , 2·9 3 −1 1 q q t = =− 1 1 10 1 + 19 3 + 3 + 9

cot 2ϕ =

= −

1 1 3



10 3

=−

1+

3 √

10 + 1 1 cos ϕ = √ = 2 1.2326774 1+t = 0.8112422, sin ϕ = t · cos ϕ = −0.58471024.

= −0.7207592,

Damit folgt:

 1 0 0 0 0  0 0.81124 0 −0.58471 0    0 1 0 0 . T :=  0  0 0.58471 0 0.81124 0  0 0 0 0 1 

168

3 Matrizeneigenwerte

Dann ist  1 2 1 6 −3  5.1308 7.6961 −4.2827 5.5471 −0.8480    −6 4 1 −2  , T> · A =  1  3.6980 5.5471 4.3195 −7.6961 −8.0175  −3 4 −2 −7 8 

1  5.1308  T> · A · T =  1  3.6980 −3 

3.6

 5.1308 1 3.6980 −3 9.4868 −4.2827 0 −0.8480   −4.2827 4 4.3195 −2  . 0 4.3195 −9.4868 −8.0175  −0.8480 −2 −8.0175 8

Verfahren von Hyman

Aufgabe 3.16 Die folgende Matrix 

 2 1 0 A =  1 −1 1  0 1 3 hat die Eigenwerte λ1 = −1.507, λ2 = 2.2219 und einen Eigenwert in der Nähe von 3. (a) Berechnen Sie A−1 mit dem Gaußschen Eliminationsverfahren oder einer Variante davon. (b) Bestimmen Sie cond∞ (A) und cond1 (A). (c) Berechnen Sie über das charakteristische Polynom mit dem Newton–Verfahren (1) (0) (Hyman!) eine Verbesserung λ3 des dritten Eigenwertes λ3 (Startwert λ3 = 3) und bestimmen Sie damit näherungsweise cond2 (A).

3.6 Verfahren von Hyman

169

Lösung: Zu (a) Das Berechnen der inversen Matrix haben wir in Aufgabe 2.11 hinlänglich geübt. Wir können also hier lediglich das Rechenschema ohne weiteren Kommentar aufschreiben:



   2 1 0 1 0 0 2 1 0 1 0 0  1 −1 1 0 1 0  →  0 − 3 1 − 1 1 0  2 2 0 1 3 0 0 1 0 1 3 0 0 1     2 1 0 1 0 0 2 1 0 1 0 0  0 − 3 1 − 1 1 0  →  0 −3 2 −1 2 0  2 2 1 2 3 1 2 0 0 1 − 11 0 0 11 11 11 3 −3 3 1     8 6 2 2 1 0 1 0 0 2 0 0 − 11 11 − 11 3 6 2   0 −3 0 − 9 18 − 6  →  0 1 0 11 11 11 11 − 11 11 1 2 3 1 2 3 0 0 1 − 11 11 11 0 0 1 − 11 11 11   4 3 1 1 0 0 − 11 11 − 11 3 6 2  0 1 0 . 11 − 11 11 1 2 3 0 0 1 − 11 11 11 Damit lautet also die inverse Matrix:

A−1

  1  −4 3 −1  3 −6 2 . = 11 −1 2 3

Zu (b) A ist symmetrisch, daher ist die Zeilensummennorm kAk∞ gleich der Spaltensummennorm kAk1 , woraus sich ebenso leicht folgern lässt, dass die Konditionen cond∞ (A) und cond1 (A) gleich sind. Das aber spart uns einen Arbeitsgang. Durch einfaches Aufsummieren der Beträge der Komponenten jeder Zeile (oder Spalte) und Heraussuchen des größten Wertes gelangt man zu den Normen und damit zu den Konditionszahlen: cond

∞ (A)

= kAk∞ · kA−1 k∞ = 4 ·

11 = 4 = cond 1 (A). 11

Zu (c) Natürlich könnte man das charakteristische Polynom dieser einfachen (3 × 3)– Matrix direkt als Determinante von A − λE ausrechnen, aber für Hessenberg–Matrizen hat sich Hyman ein schlaues Verfahren einfallen lassen, mit dem man nicht nur beliebige Werte des charakteristischen Polynoms, sondern auch Ableitungswerte berechnen kann. Das schreit also geradezu nach dem Newton–Verfahren. Wir beschränken uns hier darauf, die Formeln von Hyman für den Fall n = 3 wiederzugeben (siehe Seite 170). Die allgemeinen Formeln für beliebiges n ∈ IN kann man dann selbst daraus ableiten, oder man schlage in der hinten zitierten Fachliteratur nach.

170

3 Matrizeneigenwerte

Verfahren von Hyman (n = 3) für Hessenberg–Matrizen Sei H = (hij ) eine nichtzerfallende Hessenbergmatrix mit dem charakteristischen Polynom p(λ) = (−1)3 · h21 · h32 · ϕ(λ) Dann berechnet sich ϕ(λ) mit den Setzungen h10 = 1, x3 = 1, y3 = 0 aus den Formeln: x2 = x1 = ϕ(λ) = x0 = y2 = y1 = ϕ0 (λ) = y0 =

1 [λx3 − h33 x3 ] h32 1 [λx2 − h22 x2 − h23 x3 ] h21 1 [λx1 − h11 x1 − h12 x2 − h13 x3 ] h10 1 [x3 + λy3 − h33 y3 ] h32 1 [x2 + λy2 − h22 y2 − h23 y3 ] h21 1 [x1 + λy1 − h11 y1 − h12 y2 − h13 y3 ] h10

Ist λ ein Eigenwert von H, so ist ~x = (x1 , x2 , x3 )> ein zugehöriger Eigenvektor. Wenden wir nun unser eben erworbenes Wissen auf die oben vorgegebene Matrix A mit λ = 3 an, so folgt: x2 = 11 [3 · 1 − 3 · 1] = 0 x1 = 11 [3 · 0 − (−1) · 0 − 1 · 1] = −1 x0 = 11 [−3 + 2 − 1 · 0 − 0 · 1] = −1 p(3) = (−1)3 · 1 · 1 · (−1) = 1

y2 = 11 [1 + 3 · 0 − 3 · 0] = 1 y1 = 11 [0 + 3 · 1 − (−1)1 − 1 · 0] = 4 y0 = 11 [−1 + 3 · 4 − 2 · 4 − 1 · 1] = 2 p0 (3) = (−1)3 · 1 · 1 · 2 = −2

Jetzt sind alle Vorbereitungen getroffen, um über das Newton–Verfahren eine bessere (0) Näherung des Eigenwertes λ3 zu erreichen. Ausgehend von λ3 = 3 folgt: (0)

(1)

(0)

λ3 = λ3 −

p(λ3 ) (0) p0 (λ3 )

=3−

1 = 3.5 −2

Hier bietet es sich natürlich an, mit einem Rechner in Verbindung mit dem Hyman– Verfahren weitere Näherungen zu berechnen. Nach vier Schritten erreicht man so die (4) Näherung λ3 = 3.2851, was auf vier Nachkommastellen exakt ist. Arbeiten wir mit obigen Werten weiter, so muss nun noch die Kondition cond 2 (A) berechnet werden. Dazu benötigen wir die Normen kAk2 und kA−1 k2 (Definition in Aufgabe 2.26 S. 102).

3.7 Von–Mises–Verfahren

171

Unsere Matrix A ist symmetrisch, also haben wir es leichter mit der Berechnung der Norm kAk2 , es reicht der Spektralradius statt der Spektralnorm. Wir müssen für die inverse Matrix nur noch beachten, dass die Eigenwerte gerade die Kehrwerte der Eigenwerte von A sind, hier also:  1 ˆ1 = λ −0.1507 = −0.66357,  ˆ2 = 1 max |λ (A)| = 0.66357. λ = 0.4500 2.219  k=1,2,3 k 1 ˆ λ3 = 3.5 = 0.2857 So erhalten wir schließlich die gesuchte Kondition: cond 2 (A) = kAk2 · kA−1 k2 = %(A) · %(A−1 ) = 3.5 · 0.66357 = 2.3233495.

Bemerkung: Selbstverständlich kann man mit dem Verfahren von Hyman auch direkt das charakteristische Polynom ausrechnen, indem man λ als Variable belässt. Aber im Zeitalter der Computer ist der oben vorgestellte Weg vorzuziehen.

3.7

Von–Mises–Verfahren

Aufgabe 3.17 Führen Sie mit den folgenden Matrizen und den jeweils zugehörigen Anfangsvektoren das von Misessche Iterationsverfahren zur Bestimmung des betragsgrößten Eigenwertes durch und kommentieren Sie das Ergebnis:         1 1 0 1 1 1 (a) A =  1 1 0  , i)  −1  , ii)  2  , iii)  −1  . 0 0 −1 0 1 1  1 0 1 B =  0 2 0 , 1 0 1 

(b)



(c)

 1 0 1 C =  0 −2 0  , 1 0 1

  2 i)  3  , ii) 4



 2  3 . −1



 2  1 . −1

Lösung: In den technischen Anwendungen interessiert man sich häufig nicht für alle Eigenwerte eines Problems, sondern für ausgewählte. Bei Schwingungsaufgaben ist es in der Regel der kleinste Eigenwert, der für die zuerst auftretende Eigenschwingung verantwortlich ist. Für dieses teilweise Eigenwertproblem gibt das Verfahren von von Mises (Seite 172) die passende Antwort. Wir schildern zunächst einige Sonderfälle.

172

3 Matrizeneigenwerte

Von–Mises–Verfahren Sei A eine diagonalisierbare (n × n)–Matrix mit den (betraglich der Größe nach geordneten) Eigenwerten |λ1 | > |λ2 | ≥ |λ3 | ≥ · · · ≥ |λn | und den zugehörigen Eigenvektoren ~y1 , ~y2 , . . . , ~yn . Wir wählen einen Startvektor ~x0 6= ~o und bilden die Iterationsfolge ~x1 = A~x0 , ~x2 = A~x1 = A2 ~x0 , ~x3 = A~x2 = A3 ~x0 , . . . Lässt sich dann ~x0 darstellen in der Eigenvektorbasis als ~x0 = α1 ~y1 + · · · + αn ~yn

mit α1 6= 0,

so konvergieren die Quotienten aus entsprechenden Komponenten der Vektoren ~xi , i = 0, 1, . . . gegen den betraglich größten Eigenwert, falls die jeweilige Komponente des zum betragsgrößten Eigenwert gehörenden Eigenvektors nicht verschwindet, also es gilt: xin+1 = λ1 , n→∞ xin lim

i = 1, . . . , n,

falls y1i 6= 0

Zu (a) Der Startvektor ~x0 = (1, −1, 0)> führt zu folgender kurzen Rechnung: 

      1 1 0 1 0 1  1 1 0   −1  =  0  = 0 ·  −1  . 0 0 −1 0 0 0 Die letzte triviale Gleichung führt uns zu der Erkenntnis, dass es sich bei dem Startvektor ~x0 = (1, −1, 0)> um einen Eigenvektor zum Eigenwert 0 gehandelt hat. Manchmal hat man eben Glück. Mit dem zweiten Startvektor ergibt sich das folgende Rechenschema:         1 3 6 12  2   3   6   12  1 −1 1 −1 

         1 1 0 3 6 12 24  1 1 0   3   6   12   24  0 0 −1 −1 1 −1 1 ~x1 ~x2 ~x3 ~x4

3.7 Von–Mises–Verfahren

173

Betrachten wir nun die Quotienten, so ergibt sich aus den ersten wie auch aus den zweiten Komponenten jeweils der gleiche Wert 2, aus der dritten Komponente aber der Wert −1. Betrachten wir zur Erklärung des Phänomens die exakten Eigenwerte und Eigenvektoren von A: A hat EW: λ1  = 2  λ2 = λ3= 0  −1 1 0 1 zugeh. EV: ~e1 =  1  ~e2 =  0  ~e3 =  −1  0 1 0 und die Gleichung für die Quotienten der Komponenten der iterierten Vektoren nach dem von Mises’schen Ansatz: xin+1 λn+1 α1 y i + λn+1 α2 y2i + λn+1 α3 y3i 3 = 1 n 1 i 2n . i n i xn λ1 α1 y1 + λ2 α2 y2 + λ3 α3 y3i Wir sehen, dass die dritte Komponente vom ersten und dritten Eigenvektor Null ist. Damit treten im obigen Quotienten bei der dritten Komponente nur die mittleren Terme auf. Der Quotient ist insgesamt gleich λ2 . Der dritte Startvektor ergibt das Rechenergebnis:         1 0 0 0  −1   0   0   0  1 −1 1 −1 

         1 1 0 0 0 0 0 1 1 0  0 0  0 0 0 0 −1 −1 1 −1 1 ~x1 ~x2 ~x3 ~x4 Hier ist nur die dritte Komponente verwertbar. Das erklärt sich folgendermaßen: Der Ansatzvektor ~x0 läßt sich aus den drei Eigenvektoren kombinieren als: ~x0 = 0 · ~e1 + 1 · ~e2 + 1 · ~e3 . Das heißt also, α1 = 0. Außerdem sind die ersten beiden Komponenten von ~e2 Null, so dass bei der Berechnung der Quotienten aus der ersten oder zweiten Komponente nur der Eigenwert λ3 zu berechnen ist. Der ist aber Null. Wollen wir die dritte Komponente benutzen, so kann sich wie gesagt λ1 nicht ergeben, da α1 = 0 ist. Somit erhalten wir aus diesen Quotienten den betraglich zweitgrößten Eigenwert λ2 = −1.

174

3 Matrizeneigenwerte

Zu (b) Hier erhalten wir nach von Mises das folgende Schema:         2 6 12 24  3   6   12   24  4 6 12 24 

         1 0 1 6 12 24 48  0 2 0   6   12   24   48  1 0 1 6 12 24 48 ~x1 ~x2 ~x3 ~x4 Das führt offenkundig zum Eigenwert 2. Der zweite Startvektor ergibt die Tabelle:         2 1 2 4  3   6   12   24  −1 1 2 4 

         1 0 1 1 2 4 8  0 2 0   6   12   24   48  1 0 1 1 2 4 8 ~x1 ~x2 ~x3 ~x4 Auch hier liegt offensichtlich Konvergenz gegen den Eigenwert 2 vor. Wenn wir die exakten Eigenwerte und Eigenvektoren berechnen, so stellen wir fest, dass hier der größte Eigenwert 2 doppelt auftritt. Das hindert aber das Verfahren von von Mises nicht daran, trotzdem zu konvergieren; denn der zur zweiten Komponente gehörige Term reduziert sich einfach zu einer Konstanten, welche die Konvergenz nicht ändert. Zu (c) Jetzt ergibt sich folgendes Rechenschema nach von Mises:         2 1 2 4  1   −2   4   −8  −1 1 2 4 

         1 0 1 1 2 4 8  0 −2 0   −2   4   −8   16  1 0 1 1 2 4 8 ~x1 ~x2 ~x3 ~x4 Hier konvergieren die Quotienten aus der ersten und aus der dritten Komponente gegen 2, dagegen die aus der zweiten Komponente gegen −2. Dieses Verhalten ist typisch für das Vorliegen eines betraglich doppelten größten Eigenwertes, also für λ1 = −λ2 . Hier ist λ1 = 2, λ2 = −2. Betrachtet man in solch einem Fall die Quotienten xn+2 /xni , so ergibt i 2 sich Konvergenz gegen λ1 , woraus sich dann λ1 ermitteln läßt.

3.7 Von–Mises–Verfahren

175

Aufgabe 3.18 Führen Sie mit den folgenden Matrizen und den jeweils zugehörigen Anfangsvektoren das von Misessche Iterationsverfahren zur Bestimmung des betragsgrößten Eigenwertes durch:     2 −3 −1 3 20 −7 3 −2  −3 5 0 0   −7 5 1 4  A =  , B =  −1 0 4 2  3 1 3 1 3 0 2 −1 −2 4 1 2 ~x0 = (1, 0, 0, 0)> ~x0 = (1, 0, 0, 0)> Lösung: Mit dem gegebenen Startvektor ergibt sich für die Matrix A das folgende Rechenschema: 1 2 23 112 0 −3 −21 −174 0 −1 0 −21 0 3 1 68 2 −3 −1 3 2 23 112 971 −3 5 0 0 −3 −21 −174 −1206 −1 0 4 2 −1 0 −21 −60 3 0 2 −1 3 1 68 226 ~x1

~x2

~x3

~x4

Bilden wir nun die nach von Mises verlangten Quotienten aus den jeweils aufeinander folgenden Komponenten der iterierten Vektoren, so ergeben sich die Werte: 1. 2. 3. 4. · · · 2 11.5 4.8696 8.6696 · · · −− 7 8.2857 6.9310 · · · −− 0 −− 2.8571 · · · −− 0.3333 68 3.3235 · · ·

22. 7.2050 7.2050 7.2050 7.2050

Also können wir nach 22 Iterationen den Wert 7.2050 als betragsgrößten und daher – der Wert ist ja positiv – als größten Eigenwert feiern. Für die Matrix B erhalten wir das folgende Schema: 1 0 0 0

20 462 −7 −180 3 60 −2 −69

10818 −4350 1317 −1722

20 −7 3 −2 20 462 10818 254205 −7 5 1 4 −7 −180 −4350 −103047 3 1 3 1 3 60 1317 30333 −2 4 1 2 −2 −69 −1722 −41163 ~x1

~x2

~x3

~x4

176

3 Matrizeneigenwerte

Auch hier berechnen wir die Quotienten und zeigen das Ergebnis in der folgenden Tabelle: 1. 2. 3. 20 23.1 23.4156 −− 25.7143 24.1667 −− 20 21.95 −− 34.5 24.9565

4. 23.4983 23.6890 23.0319 23.9042

··· ··· ··· ··· ···

13. 23.5274 23.5274 23.5274 23.5274

Das Ergebnis, 23.5274 als größten Eigenwert zu erkennen, erhalten wir hier also schon nach 13 Iterationen. Aufgabe 3.19 Gegeben sei die Matrix   12 6 0 A =  6 8 5 , 0 5 a

a ∈ IR.

(a) Für welche a ∈ IR ist A positiv definit? (b) Bestimmen Sie das kleinstmögliche a ∈ IN, so dass der zu a gehörige dritte Gerschgorin–Kreis getrennt von den beiden übrigen ist. (c) Berechnen Sie für dieses a ∈ IN eine Näherung nach von Mises für den betragsgrößten Eigenwert (Startvektor (12, 6, 0)> , 4 Iterationen). Lösung: Zu (a) Matrix umformen nach Gauß :       12 6 0 12 6 0 12 6 0  6 8 5  →  0 5 5  →  0 5 5 . 0 5 a 0 5 a 0 0 a−5 Mit a > 5 ist A positiv definit. Zu (b) Gerschgorin-Kreise: Wegen der Symmetrie von A reicht es aus, nur Spalten- oder Zeilenkreise zu betrachten: |12 − z| ≤ 6 |8 − z| ≤ 11 =⇒ |a − z| ≤ 5

6 ≤ λ ≤ 18 −3 ≤ λ ≤ 19 a−5 ≤λ≤ a+5

Da A symmetrisch ist, sind alle Eigenwerte reell. Aus den ersten beiden Ungleichungen folgt −3 ≤ λ1 , λ2 ≤ 19. Falls wir a > 5 verlangen, ist A positiv definit ist. Dann gilt auch die Einschränkung 0 ≤ λ1 , λ2 ≤ 19.

3.8 Rayleigh–Quotient

177

Damit der zu a gehörige dritte Gerschgorin-Kreis getrennt von den beiden übrigen ist (mit kleinstmöglichen a ∈ IN), wähle a = 25. Dann folgt 20 ≤ λ3 ≤ 30. Zu (c) ~x0 ~x1 ~x2 ~x3 ~x4

= (12, 6, 0)T , = A~x0 = (180, 120, 30)T , = A~x1 = (2880, 2190, 1350)T , = A~x2 = (47700, 41550, 44700)T , = A~x3 = (821700, 842100, 1325250)T .

Daraus ergibt sich als Näherung für den betragsgrößten Eigenwert aus der 1. Komponente: 17.226, 2. Komponente: 20.267, 3. Komponente: 29.647651. Der Vergleich mit den exakten Werten λ1 = 2.9086, λ2 = 15.5368, λ3 = 26.5546 zeigt uns, dass mit vier Näherungen noch kein Staat zu machen ist.

3.8

Rayleigh–Quotient

Aufgabe 3.20 Berechnen Sie für die Matrizen aus Aufgabe 3.18 von Seite 175 den betraglich größten Eigenwert mit dem Rayleigh-Quotienten. Lösung: Zunächst stellen wir kurz einige Tatsachen über den Rayleighquotienten zusammen:

Rayleigh–Quotient Sei A eine beliebige n × n–Matrix. Dann ist für alle Vektoren ~x 6= 0: R(~x) :=

~x> A~x ~x> · ~x

178

3 Matrizeneigenwerte

Für eine symmetrische Matrix mit den Eigenwerten λ1 ≥ λ2 ≥ · · · ≥ λn hat der Rayleigh– Quotient eine bemerkenswerte Extremaleigenschaft:

Extremaleigenschaft des Rayleigh–Quotienten λ1 = max R(~x), λn = min R(~x)

∀~x 6= 0

Der Zähler des Rayleighquotienten ~x> A~x läßt sich auch auffassen als das Skalarprodukt der beiden Vektoren ~x und A~x. Das sind aber gerade zwei aufeinander folgende Vektoren in der Iteration nach von Mises. Der Nenner ist das Quadrat der Norm von ~x. Es bietet sich also an, während der Ausrechnung nach von Mises den Rayleighquotienten gleich mitzubestimmen. Darüber hinaus ist die Konvergenz der Rayleighquotienten wesentlich schneller. Sind die Eigenwerte dem Betrage nach geordnet |λ1 | ≥ |λ2 | ≥ · · · ≥ |λn | so hat das Restglied bei den Quotienten q i nach von Mises die Ordnung: i ! λ2 O , λ1 während die Ordnung des Restgliedes bei den Rayleighquotienten R(~xi ) lautet: 2i ! λ2 O , λ1 Die Ausrechnung der Rayleighquotienten liefert die folgenden Ergebnisse: Matrix A R(~x0 ) R(~x1 ) R(~x2 ) R(~x3 ) R(~x4 ) R(~x5 ) R(~x6 ) R(~x7 )

2.0000 Matrix B R(~x0 ) 20.0000 4.8696 R(~x1 ) 23.4156 6.4861 R(~x2 ) 23.5194 7.0006 R(~x3 ) 23.5268 7.1479 R(~x4 ) 23.5273 7.1891 R(~x5 ) 23.5274 7.2006 7.2050

Wo bei von Mises noch 21 Iterationen benötigt wurden, führen hier bei Matrix A bereits 8 Iterationen zum größten Eigenwert, bei Matrix B reichen 6 Iterationen im Gegensatz zu 13 bei von Mises.

3.8 Rayleigh–Quotient

179

Aufgabe 3.21 Berechnen Sie, indem Sie vom Startvektor ~x(0) = (1, 0, 0, 0)> ausgehen, (a) nach dem von–Mises–Verfahren, (b) mit dem Rayleigh–Quotienten, eine Näherung für den betragsgrößten Eigenwert der Matrix   1.1 2.2 3.3 4.4  5.5 6.6 7.7 8.8  A= , 9.9 0 1.1 2.2  3.3 4.4 5.5 6.6 wobei die iterierten Vektoren ~x(1) , ~x(2) und ~x(3) zu verwenden sind. Lösung: Zu (a)

1.1 5.5 9.9 3.3

2.2 6.6 0 4.4

3.3 7.7 1.1 5.5

4.4 8.8 2.2 6.6

1 0 0 0

1,1 5,5 9,9 3,3

60,5 147,62 29,4 104,06

1.1 5.5 9.9 3.3

60,5 147,62 29,04 104,06

945,1 2446,3779 859,8259 1695,694

von Mises sagt: (k+1)

Einer der Quotienten

xi

(k)

xi

strebt gegen den betragsgrößten Eigenwert.

Die Quotienten lauten hier:    1.1 60.5  5.5   147.62  = , ~x(2) =  , 9.9  29.04  3.3 104.06     55 15.62  26.84   16.57  : , Q2,3 :  . 2.9¯3  29.608  16.295 31.5¯3 

~x(1)

Q1,2

Zu (b) Der Rayleigh–Quotient lautet: R(~x) =

~x> A~x . |~x|2

180

3 Matrizeneigenwerte

Hier gilt für R(~x(0) ), da A~x(0) = ~x(1) :

R(~x(0) ) =

~x(0)> · ~x(1) |~x

(0) 2

|

=

1.1 = 1.1 1

~x(1)> · ~x(2) |~x(1) |2 1.1 · 60.5 + 5.5 · 147.62 + 9.9 · 29.04 + 3.3 · 104.06 = 1.12 + 5.52 + 9.92 + 3.32 1509.354 = = 10.753448, 140.36 ~x(2)> · ~x(3) 619305.4 R(~x(2) ) = = = 16.682203. 37123.718 |~x(2) |2 R(~x(1) ) =

Die exakten Eigenwerte sind: λ1 = 0, λ2 = −2.5893, λ3 = 0.5909, λ4 = 17.3985. Man wird also noch ein paar Iterationen nachschieben müssen, um dem betragsgrößten Eigenwert nahezukommen.

3.9

Inverse Iteration

Aufgabe 3.22 Bestimmen Sie iterativ Näherungen für den betragskleinsten Eigenwert der Matrix   8 −2 −3 A =  −2 4 2  . −3 2 5 ( Hinweis: Startvektor (1, − 12 , 12 )> , führen Sie eine Iteration nach Wielandt aus! )

Lösung: Von Wielandt stammt die Idee, das von Mises–Verfahren so zu modifizieren, dass der betragskleinste Eigenwert berechnet wird.

3.9 Inverse Iteration

181

Verfahren von Wielandt Nennen wir λ? den betragskleinsten Eigenwert der Matrix A, so gilt also: A~x = λ? ~x. Diese Gleichung ist bei einer regulären Matrix A gleichbedeutend mit A−1 ~x =

1 ~x. λ?

Das ist aber gerade eine Eigenwertgleichung für die Matrix A−1 zum Eigenwert 1/λ? . Offensichtlich ist, wenn λ? der betragskleinste Eigenwert von A war, 1/λ? der betragsgrößte Eigenwert von A−1 . Unsere Aufgabe, den betragskleinsten Eigenwert von A zu bestimmen, ist bei einer regulären Matrix A also äquivalent zu der Aufgabe: Gesucht ist der betraglich größte Eigenwert von A−1 . Wie bei von Mises wird ein Startvektor ~x(0) vorgegeben. Statt nun aber nach der Formel ~x(n+1) = A−1 ~x(n)

n = 1, 2, . . .

die inverse Matrix zu berechnen, was numerisch sehr aufwendig ist und bei schlechter Kondition der Matrix A zu großen Rundungsfehlern führt, geht man zur äquivalenten Gleichung über: A~x(n+1) = ~x(n) , n = 1, 2, . . . . Dies ist eine Folge von linearen Gleichungssystemen mit stets der gleichen Matrix A. Wir bilden also einmal eine L–R–Zerlegung von A und lösen damit jedesmal das Gleichungssystem. 

   8 −2 −3 8 −2 −3  −2 4 2  →  1/4 7/2 5/4  −3 2 5 3/8 5/4 31/8   8 −2 −3 7/2 5/4  , →  1/4 3/8 −5/14 24/7     1 0 0 8 −2 −3 d.h. L =  −1/4 1 0  , R =  0 7/2 5/4  . −3/8 5/14 1 0 0 24/7 Mit ~x(0) = (1, −1/2, 1/2)> ergibt sich ~x(1) aus A~x(1) = ~x(0) , d.h. L · R~x(1) = ~x(0) , d.h. L~y (1) = ~x(0) und R~x(1) = ~y (1) .  L~y (1) = ~x(0)

    1 0 0 y1 1 ⇐⇒  −1/4 1 0   y2  =  −1/2  , −3/8 5/14 1 y3 1/2

182

3 Matrizeneigenwerte 

⇒ ~y (1)

 1 =  −1/4  . 0.9643



R~x(1) = ~y (1)

    8 −2 −3 x1 1 ⇒  0 7/2 5/4   x2  =  −1/4  0 0 24/7 x3 0.9643

0.9643 · 7 = 0.2813. 24  2 1 5 x2 = − − · 0.2813 = −0.1719, 7 4 4 1 x1 = (1 − 2 · 0.17 + 3 · 0.2813) = 0.1875, 8

⇒ x3 =

Damit erhält man eine Näherung für den betragskleinsten Eigenwert, indem man den Quotienten aus den jeweiligen Komponenten von ~x(0) und ~x(1) berechnet: 1 −1/2 1/2 = 5.376; = 2.941; = 1.7775. 0.186 −0.17 0.2813 Vergleichen wir mit den exakten Eigenwerten: λ1 = 2.4091, λ2 = 3.6384, λ3 = 10.9526. Bei Fortsetzung des Verfahrens sollte mindestens eine der so aus den einzelnen Komponenten berechneten Quotientenfolgen gegen den betragskleinsten Eigenwert λ1 = 2.4091 konvergieren. Aufgabe 3.23 Die folgende Matrix A hat einen Eigenwert in der Nähe von 50. Verbessern Sie diesen durch inverse Iteration:   23 26 −51 A =  −25 74 −51  −25 −26 49 Lösung: ˜ für einen Eigenwert λ bekannt ist, so kann Falls wie in der Aufgabe eine gute Näherung λ man einen sogenannten ‚Shift‘ durchführen. Shift ˜ eine Näherung für den Eigenwert λ der Matrix A. Sodann betrachtet man statt Sei λ ˜ Man subtrahiert also von den Diagonalelementen der Matrix A die Matrix A˜ = A− λE. ˜ ˜ als Eigenwert hat. Ist nun die Näherung λ. Das führt zu einer Matrix, welche λ − λ ˜ ˜ klein. Das bedeutatsächlich λ eine gute Approximation für λ, so ist die Differenz λ− λ ˜ den vermutlich betragskleinsten tet also, wir suchen für die neue Matrix A˜ = A − λE Eigenwert. Diesen bestimmen wir mit dem Verfahren von Wielandt.

3.9 Inverse Iteration

183

Für unsere Aufgabe lautet die L–U –Zerlegung: 

   1 0 0 −27 26 −51 A˜ = L · U =  0.925 1 0  ·  0 −0.074 −3.7  0 0 2600 0.925 676 1 Die berechneten iterierten Vektoren stellen wir in der untenstehenden Tabelle dar, wobei wir als Startvektor ~x(0) = (1, 2, 3)> wählen: ~x(0) ~x(1) ~x(2) ~x(3) 1 0.201539 −0.1244608 0.062482044 2 −0.2984609 0.12553936 −0.0625180676 3 −0.278461 0.12593959 −0.06251025199 Jetzt berechnen wir den gesuchten Eigenwert nach der Formel: λ? =

1 1 + 50 ≈ n+1 n + 50. λ (x /x )

Das führt auf die folgende Zahlentabelle: −1.6192969 + 50 48.0085400 · · · 48 −2.3774300 + 50 47.9919500 · · · 48 −2.2110696 + 50 47.9852797 · · · 48 und 48 ist auch Eigenwert der Matrix A. Aufgabe 3.24 Gegeben sei die Matrix 

 5.1 0.1 −0.2 A =  0.1 5.0 −0.1  . −0.2 −0.1 5.2

(a) Bestimmen Sie mit dem Kreissatz von Gerschgorin Abschätzungen für die Eigenwerte von A. (b) Berechnen Sie sodann nach „Shift“ mit der Inversen Iteration von Wielandt einen Eigenwert (Startvektor ~x = (1, 0, 0)> , gesucht x~1 , x~2 , x~3 und daraus folgende Näherung für den Eigenwert).

Lösung: Zu (a) Die Matrix ist symmetrisch, also sind alle Eigenwerte reell. Es reicht, Zeilen– oder Spaltenkreise zu betrachten:

184

3 Matrizeneigenwerte  |λ − 5.1| ≤ 0.3 → 4.8 ≤ λ ≤ 5.4  |λ − 5.0| ≤ 0.2 4.8 ≤ λ ≤ 5.2 4.8 ≤ λ1 .λ2 .λ3 ≤ 5.5 |λ − 5.2| ≤ 0.3 4.9 ≤ λ ≤ 5.5 

Zu (b) Als Näherung wählen wir nach (a) λ1 = 5.0 und führen einen Shift durch:   0.1 0.1 −0.2 0 −0.1  A˜ =  0.1 −0.2 −0.1 0.2 ˜ also betraglich größter von A˜−1 Gesucht: kleinster EW von A, Nach von Mises: Ausgehend von ~x0 = (1, 0, 0)> führt das auf eine Folge linearer Gleichungssysteme mit stets derselben Systemmatrix, rechte Seite = ~x0 , ~x1 , ~x2 , . . . Berechnung von ~x1 , ~x2 : 

0.1 0.1 −0.2 | 1  0.1 0.0 −0.1 | 0 −0.2 −0.1 0.2 | 0  0.1 0.1 −0.2 | 1 →  −1 −0.1 0.1 | −1 2 0.1 −0.2 | 2

 −10 200 0 100  −10 200  −10 200 10 −100  −30 600



 0.1 0.1 −0.2 | 1 −10 200 →  −1 −0.1 0.1 | −1 10 −100  . 2 1 −0.1 | 1 −20 500 Lösen des so entstandenen Dreieckssystems durch Aufrollen: x3 = −10 x2 = 0 x1 = −10 ~x1

200 −5000 100 −4000 200 −4000 ~x2 ~x3

Damit gewinnen wir die Näherung: 1 −10

10 +5 = 4.9 − 200 + 5 = 4.95 4.95 − − 5 = 5 4.975 4.9 4.95 4.96

Zum Vergleich geben wir die exakten Werte der Eigenwerte an: λ1 = 5.40478, λ2 = 4.965596, λ3 = 4.92962.

3.10 Deflation

3.10

185

Deflation

Aufgabe 3.25 Sei λ ein Eigenwert zum Eigenvektor ~z der Matrix A, und sei ~z so gewählt, dass z1 = 1 und |zi | ≤ 1 gilt (i = 1, . . . , n). Ist dann L die folgende Frobeniusmatrix:   1 0 ··· ··· 0  −z2 1 0 · · · 0     .. . . ..  , . . 0 1 . L=    .. .. . . . .   . . . . 0 −zn 0 · · · 0 1 so zeigen Sie, dass L~z = ~e1 gilt, dass die zu A ähnliche Matrix B = L · A · L−1 die Gestalt hat:   λ ~u> 0    B= .   .. A2  0 und dass die Eigenwerte von A2 gerade die noch fehlenden Eigenwerte von A sind. Lösung: Die Gleichheit L~z = ~e1 kann man natürlich direkt nachrechnen, vielleicht stört aber manchen doch, dass man an entscheidender Stelle „und so weiter“ sagen muss. Daher überlegen wir uns, dass sich L folgendermaßen schreiben lässt: L = E − (~z − ~e1 )~e> 1. Damit folgt dann sofort, da ~e> z = 1 ist, 1 ·~ L~z = (E − (~z − ~e1 )~e> z 1 )~ > = ~z − (~z − ~e1 )~e1 · ~z = ~e1 . Offensichtlich ist B ähnlich zu A, wenn wir uns die Definition von „ähnlich“ in Erinnerung rufen, und wir erhalten die Gleichungskette: B~e1 = L · A · L−1 ~z = L · A~z = λ · L~z = λ~e1 . Dies zeigt aber gerade, dass B die oben behauptete Gestalt hat. Da nun B ähnlich zu A ist, haben A und B dieselben Eigenwerte, dann muss A2 also die restlichen Eigenwerte von A haben. Wir können so das Problem, die Eigenwerte der (n × n)–Matrix A zu berechnen, bei Kenntnis eines Eigenwertes und zugehörigen Eigenvektores auf die Eigenwertsuche bei einer ((n−1)×(n−1))–Matrix A2 zurückführen. Dieses Vorgehen nennt man Deflation.

186

3 Matrizeneigenwerte

Aufgabe 3.26 Entwickeln Sie auf der Grundlage der Aufgabe 3.25 einen Algorithmus zur Berechnung weiterer Eigenwerte einer Matrix A mittels Deflation, falls ein Eigenwert und ein zugehöriger Eigenvektor bereits bestimmt ist. Lösung: Zunächst müssen wir die Voraussetzungen wie in Aufgabe 3.25 schaffen. Dazu sollte unser gefundener Eigenvektor die betraglich größte Komponente an Nummer 1 stehen haben, und diese sollte dann auch gleich 1 sein. Das letztere ist leicht zu erreichen; denn mit jedem Eigenvektor ist auch ein beliebiges Vielfaches ein Eigenvektor zum selben Eigenwert. Wir werden also einfach den gefundenen Eigenvektor durch seine betragsgrößte Komponente dividieren, so dass diese dann gleich 1 ist. Nun steht sie vielleicht noch nicht an der ersten Stelle. Das erreicht man durch einen Zeilentausch. Die zugehörige Permutationsmatrix wollen wir P nennen. Durch diese Pivotisierung schafft man sich Vorteile, was die Rundungsfehler anbelangt. Das weitere Vorgehen stellen wir im folgenden Algorithmus zusammen.

Deflation λ sei Eigenwert, ~z zugehöriger Eigenvektor der Matrix A. Wähle die Permutationsmatrix P so, dass z1 = 1 und kzk∞ = 1. Setze:   1 0 ··· 0  −z2 1 0 · · · 0     .. . . ..   . . L :=  . 0 1 ,  .. .. . . . .   . . . . 0 −zn 0 · · · 0 1 T := L · P,

B := T · A · T −1 .

Die Matrix B ist dann zerfallend, ähnlich zu A und hat λ als Eigenwert zum Eigenvektor ~e1 . Sie hat die Gestalt (vgl. Aufgabe 3.25):   λ ~u> 0    B= .   .. A2  0

3.10 Deflation

187

Aufgabe 3.27 Gegeben sei die Matrix A, ein Eigenwert λ und ein zugehöriger Eigenvektor ~z:     1 2 1 1 A =  3/2 1 3/2  , ~z =  1  , λ = 4. 2 1/2 3/2 1 Bestimmen Sie mittels Deflation eine (2 × 2)–Matrix A2 , deren Eigenwerte gerade die noch fehlenden Eigenwerte von A sind. Lösung: Wir orientieren uns an dem Algorithmus aus Aufgabe 3.26. Hier steht uns das Glück zur Seite, denn der vorgegebene Eigenvektor ist bereits normiert und seine Komponente z1 = 1. So entfällt eine Zeilenvertauschung. Wir können direkt die Matrix L aufschreiben:   1 0 0 L =  −1 1 0  = T. −1 0 1 Als Frobeniusmatrix verrät uns T sofort ihre inverse Matrix:   1 0 0 T −1 =  1 1 0  . 1 0 1 Einfaches Ausmultiplizieren ergibt die zu A ähnliche Matrix B:   4 2 1 B =  0 −1 0.5  . 0 −1.5 0.5 Wie wir sehen, steht der vorgegebene Eigenwert λ = 4 oben links in der Matrix. Wir haben die gesuchte (2 × 2)–Matrix eingerahmt. Aus ihr lassen sich die gesuchten zwei Eigenwerte sofort berechnen: √ √ 1 3 1 3 λ2 = − + , λ3 = − − i 4 4 4 4

4

Lineare Optimierung

4.1

Einführungsaufgabe

Aufgabe 4.1 Eine Firma produziert zwei verschiedene Produkte P1 und P2 , wobei drei verschiedene Sorten Rohmaterial R1 , R2 und R3 herangezogen werden. Die benötigten Daten entnehme man der Tabelle:

Rohmaterial R1 R2 R3 Gewinn

Rohmaterialien für P1 P2 2 1 1 1 0 1 150 300

maximal verfügbar (pro Tag) 16 8 3.5

Bestimmen Sie den maximalen Gewinn pro Tag (a) graphisch,

(b) nach dem Simplex-Verfahren.

Lösung: zu (a) Die graphische Lösung zeigen wir in Abbildung 4.1. Die durch den Nullpunkt verlaufende Gerade ist die Zielfunktion zum Gewinn 0. Das im ersten Quadranten liegende Polygon OABC umfaÜt die möglichen Mengen der Produkte P1 und P2 , die pro Tag produziert werden. In diesem Polygon müssen wir also nach dem Maximum der Gewinnfunktion forschen. Diese Suche bedeutet ja, daÜ wir die Gewinnfunktion solange parallel verschieben, bis ihr Wert maximal im Polygon ist. Offensichtlich ist das der Fall, wenn die Gewinnfunktion durch den Punkt B verläuft. Dort aber ist x1 = 4.5, x2 = 3.5, Gewinn = 1725 WE. zu (b) Zunächst stellen wir die Systemgleichungen auf: x1 , x2 seien benötigte Mengen von P1 bzw. P2 , produziert pro Tag. Dann lautet die gewinnbringende Aufgabe:

190

4 Lineare Optimierung x2 6 8

@x1 + x2 = 8A @ A 2x1 + x2 = 16 A 6H @ A HH@ A H@ HH @B 4e e A x2 = 3.5 H C @H A @HH A fmax 2 @ AHH @ A HH H HH 1 @ AAeA @ HeH x1 1 2 4 6 8 O H HH150x + 300x = 0 1 2 HH

Abbildung 4.1: Graphische Lösung zu Aufgabe 4.1 Maximiere die Zielfunktion: f (x1 , x2 ) = 150x1 + 300x2 unter den Nebenbedingungen: x1 ≥ 0, x2 ≥ 0, 2x1 + x2 ≤ 16, x1 + x2 ≤ 8, x2 ≤ 3.5 Wir führen diese Ungleichungen auf Gleichungen (mit Schlupfvariablen) zurück: 2x1 + x2 + x3 = 16 x1 + x2 + x4 = 8 x2 + x5 = 3.5 Wähle x3 , x4 , x5 als Basisvariable, x1 , x2 als Nullvariable: Wir starten also mit unserem Suchalgorithmus im Punkt (0,0). x3 = 16 − 2x1 − x2 x4 = 8 − x1 − x2 x5 = 3.5 − x2 Für x1 , x2 = 0 folgt x3 > 0, x4 > 0, x5 > 0, also ist der Nullpunkt ein zulässiger Eckpunkt. 1. Schritt: Test auf Optimalität: f (x1 , x2 ) = 150x1 + 300x2 → f nicht optimal, da beide Koeffizienten ≥ 0

4.1 Einführungsaufgabe

191

Wenn wir nur eine der Variablen vergröÜern, wird auch der Wert der Zielfunktion f vergröÜert. Jetzt nehmen wir einen Variablentausch vor: Ausgetauscht wird x2 , da 300 ≥ 150. Gegen welche Variable wird getauscht? x3 = 16 − 2x1 − x2 ∆x2 = 16 x4 = 8 − x1 − x2 ∆x2 = 8 x5 = 3.5 − x2 ∆x2 = 3.5 Also wird x2 gegen x5 getauscht (maximale Vergrößerung von x2 darf 3.5 sein!). Neue Nullvariable sind damit x1 , x5 .

(∗)

x2 = 3.5 − x5 x3 = 16 − 2x1 − 3.5 + x5 = 12.5 − 2x1 + x5 x4 = 8 − x1 − 3.5 + x5 = 4.5 − x1 + x5

Also x1 = 0, x2 = 3.5, x3 = 12.5, x4 = 4.5, x5 = 0. Wir sind zum Punkt C in der Skizze gelangt. 2. Schritt: Test auf Optimalität: Dazu müssen wir f ausdrücken in x1 und x5 . Aus (*) folgt f (x1 , x5 ) = 150x1 + 300(3.5 − x5 ) = 150x1 − 300x5 + 1050 f ist also nicht optimal, da der Koeffizient bei x1 noch ≥ 0. Ausgetauscht wird daher jetzt x1 : x2 = 3.5 − x5 ∆x1 beliebig x3 = 12.5 − 2x1 + x5 ∆x1 = 6.25 x4 = 4.5 − x1 + x5 ∆x1 = 4.5 Es wird x4 gegen x1 getauscht. Die neuen Nullvariablen sind also x4 , x5 , die neuen Basisvariablen sind x1 , x2 , x3 . x1 = 4.5 − x4 + x5 x2 = 3.5 − x5 x3 = 12.5 − 2(4.5 − x4 + x5 ) + x5 = 3.5 + 2x4 − x5 Damit erreichen wir als neuen Punkt in der Skizze Punkt B: x1 = 4.5, x2 = 3.5, x3 = 3.5, x4 = x5 = 0.

192

4 Lineare Optimierung

3. Schritt: Test auf Optimalität: f (x4 , x5 ) = 150(4.5 − x4 + x5 ) − 300x5 + 1050 = 675 − 150x4 − 150x5 + 1050. Jetzt ist das Optimum erreicht, da die Koeffizienten von x4 und x5 < 0 sind. Punkt (B) liefert also das Optimum. Antwort: Der Gewinn ist maximal, falls 4.5 Einheiten P1 und 3.5 Einheiten P2 pro Tag produziert werden. Der maximale Gewinn ist dann: 1725 WE, dabei bleiben 3.5 Einheiten von Rohmaterial R1 unbenutzt.

4.2

Das Simplex–Tableau

Aufgabe 4.2 Vorgelegt sei die folgende lineare Optimierungsaufgabe im IRn : Die lineare Zielfunktion f (~x) = ~c> · ~x = c1 x1 + c2 x2 + . . . + cn xn ist zu minimieren unter Einhaltung der m Nebenbedingungen (A ist also eine (m × n)– Matrix): A~x ≤ ~b, ~x ≥ 0. Stellen Sie unter Einbeziehung der sogenannten Simplex-Tableaus und Einführung von Schlupfvariablen einen Ablaufplan zur Lösung der Aufgabe auf. Lösung: Führen wir für jede Nebenbedingung eine Schlupfvariable ein, so gehen die Ungleichungen in Gleichungen über, und wir erhalten die Nebenbedingungen in der Form: a11 x1 + . . . + a1n xn + xn+1 = b1 .. .. .. .. . . . . am1 x1 + . . . + amn xm + xn+m = bm xi ≥ 0, i = 1, . . . , n Voraussetzung: Es gelte rg(A) = m, und das Problem habe eine zulässige Lösung.

4.2 Das Simplex–Tableau

193

Das Simplexverfahren (schematisiert) 1 Bestimme zulässige Basislösung und zugehöriges Simplextableau:

f xn+1 .. . xn+µ .. .

−x1 α00 α01 α10 α11 .. .. . . αµ0 αµ1 .. .. . .

−x2 . . . −x% . . . α02 . . . α0% . . . α12 . . . α1% . . . .. .. . . αµ2 . . . αµ% . . . .. .. . .

−xn α0,n α1,n .. . αµ,n .. .

xn+m αm0 αm1 αm2 . . . αm% . . . αm,n In der ersten Zeile finden wir die Koeffizienten der Zielfunktion. α00 ist der Wert der zu minimierenden Funktion. Gehen wir von der ersten zulässigen Basislösung x1 = · · · = xn = 0 aus (was in den folgenden Anwendungsaufgaben stets vorausgesetzt wird), so ist also α00 = f (x1 , . . . , xn ) = 0. In den weiteren Spalten stehen die Koeffizienten der Nullvariablen, wobei wir diese – wie darübergesetzt – negativ führen. Die folgenden Zeilen enthalten die Koeffizienten der Nebenbedingungen, wobei diese Gleichungen jeweils nach den Schlupfvariablen aufgelöst wurden und die Nullvariablen wieder negativ geführt werden. 2 Falls α0j ≤ 0, j = 1, . . . , n, gehe zu Schritt 4 , sonst bestimme % ∈ {1, . . . , n}, so daß α0% > 0. 3 Falls αi% ≤ 0, i = 1, . . . , m, gehe zu Schritt 5 , sonst bestimme die zu eliminierende µ-te Basisvariable: bestimme µ so, daß αµ0 /αµ% minimal ist, µ = 1, . . . , m, αµ% > 0. Tausche die µ-te Basisvariable und die %-te Nichtbasisvariable und berechne das neue Simplextableau mit der Formel:  1/αµ%     αµj /αµ% αij :=  −αi% /αµ%    (αij αµ% − αi% αµj )/αµ%

i = µ, j = % i = µ, j 6= % i 6= µ, j = % i 6= µ, j 6= %

Gehe zu Schritt 2 . 4 Stop: Das vorliegende Simplextableau ist optimal. 5 Stop: Die Zielfunktion ist nach unten unbeschränkt.

194

4.3

4 Lineare Optimierung

Anwendungsaufgaben

Aufgabe 4.3 Berechnen Sie eine Lösung der folgenden Optimierungsaufgabe: Maximiere die Zielfunktion f (x) = ~c> · ~x unter den Nebenbedingungen: A~x ≤ ~b, mit

 −6 5  −7 12     0 1 A= ,  19 14   1 0 4 −7 

~x ≥ 0

 30  84    9 ~b =   ,  266   10  28 

  3 ~c = . 1

Lösung: Wir versuchen zunächst wieder, die Aufgabe graphisch anzugehen, um unser algorithmisches Vorgehen anschließend an der Skizze überprüfen zu können. Die Nebenbedingungen liefern ein Polygon mit den Eckpunkten: O = (0, 0), A = (7, 0), B = (10, 18/7), C = (10, 38/7), D = (140/19, 9), E = (24/7, 9), F = (60/37, 294/37), G = (0, 6). x2 10

6

E " , , " F" , %, % , % G,

D S

5

1 1 f (x)

C S

5

C

S C SC SC C C C C C C "B C " " C " " -C 10 x1CC A

Abbildung 4.2: Graphische Lösung von Aufgabe 4.3

4.3 Anwendungsaufgaben

195

Mögliche Lösungen liegen nur innerhalb dieses Polygons, wie uns die Ungleichheitszeichen zeigen. Die Theorie besagt, dass die Lösung in einem Eckpunkt oder auf einer ganzen Kante angenommen wird. In die Skizze haben wir auch den Graph der zu maximierenden Funktion f im Nullpunkt eingetragen. Man erkennt sofort, dass ein Verschieben dieser Geraden in senkrechter Richtung den Wert der Funktion vergrößert. Daraus ergibt sich unmittelbar, dass das Maximum dieser Zielfunktion im Punkt (10, 38/7) angenommen wird. Dort erhalten wir als Maximalwert f (x1 , x2 ) = 30 + 38/7 = 248/7. Damit ist das Problem graphisch gelöst. Kommen wir nun zur algorithmischen Lösung. Im Simplex–Verfahren wird zunächst grundsätzlich das Minimum einer Zielfunktion gesucht. Also müssen wir unsere Maximumaufgabe in eine Minimumaufgabe umwandeln. Dies geschieht nach der leicht einzusehenden Formel: max f (x) = − min(−f (x)) ⇐⇒ − max f (x) = min(−f (x)). Wir suchen also das Minimum der Funktion f˜(x1 , x2 ) = −f (x1 , x2 ) = −3x1 − x2 . Die Voraussetzung zur Durchführung des Simplexalgorithmus ist erfüllt: rg(A) = 6 = Anzahl der Nebenbedingungen. Wir wählen als erste Basislösung x1 = x2 = 0. Zum Aufbau des ersten Simplextableaus schreiben wir die Zielfunktion und die Nebenbedingungen so auf, dass wir die Zahlen direkt ins Tableau übernehmen können:

α00 x3 x4 x5 x6 x7 x8

= = = = = = =

f˜(x1 , x2 ) = 0 + 3(−x1 ) + 1(−x2 ) 30 + (−6)(−x1 ) + 5(−x2 ) 84 + (−7)(−x1 ) + 12(−x2 ) 9 + 0(−x1 ) + 1(−x2 ) 266 + 19(−x1 ) + 14(−x2 ) 10 + 1(−x1 ) + 0(−x2 ) 28 + 4(−x1 ) + (−7)(−x2 )

f˜ x3 x4 x5 x6 x7 x8

−x1 −x2 0 3 1 30 −6 5 84 −7 12 9 0 1 266 19 14 10 1 0 28 4 −7

Nun steigen wir in unser Verfahren aus Aufgabe 4.2 ein. 2 In der ersten Zeile stehen nur positive Zahlen. Wir wählen 3 als die größere Zahl, das heißt, wir wählen ρ = 1. Das wiederum bedeutet, dass wir die Nullvariable x1 austauschen.

196

4 Lineare Optimierung 3 Wir untersuchen die ρ–te, also die erste Spalte: Falls alle Spaltenelemente kleiner oder gleich Null sind, so ist die Zielfunktion nach unten unbeschränkt, es gibt also kein Minimum. Hier sind aber drei Elemente größer als Null. Für diese bilden wir die Quotienten αµ0 /αµρ : µ = 4 : 266/19 = 14, µ = 5 : 10/1 = 10, µ = 6 : 28/4 = 7. Der kleinste Wert wird für µ = 6 erhalten. Wir haben dieses Ergebnis in obigem Schema durch Umrahmung der 4 vorweggenommen. Es führt dazu, dass x8 neue Basisvariable wird. Wir führen also den Tausch durch: x8 ←→ x1 . Berechnung des neuen Tableaus für µ = 6, ρ = 1: Gehen wir nach obigem Formelschema vor, so folgt z.B.: ∗ α00 = (αµρ α00 − αiρ αµj )/αµρ = (α61 α00 − α01 α60 )/α61 = (4 · 0 − 3 · 28)/4 = −21.

Diese kleine Rechnung läßt sich leicht schematisch und damit von einem Rechner ausführen. Der Zähler in der obigen ersten Formel ist genau nachgebildet der Berechnung einer zweireihigen Determinante. In der Zeile und in der Spalte des ausgewählten Elementes, das wir auch Pivot–Element nennen, reduziert sich die Rechnung auf eine einfache Division, wobei man in der Spalte das andere Vorzeichen zu nehmen hat. Das führt uns zum folgenden Tableau: f˜ x3 x4 x5 x6 x7 x1

−x8 −x2 −21 −3/4 25/4 72 3/2 −11/2 133 7/4 −1/4 9 0 1 133 −19/4 189/4 3 −1/4 7/4 7 1/4 −7/4

Man kann sich die Erstehung des Tableaus auch direkt vergegenwärtigen. Lösen wir die letzte Nebenbedingung, also die 6., mit der neuen Schlupfvariablen x8 nach x1 auf, so folgt: −7 1 x1 = 7 + (−x2 ) + (−x8 ), 4 4 worin wir die Koeffizienten der letzten Zeile des obigen Tableaus wiederfinden. Setzen wir dies in die Gleichung der Zielfunktion f ein, so folgt: −f˜(~x) = −21 +

25 −3 (−x2 ) + (−x8 ). 4 4

4.3 Anwendungsaufgaben

197

Auch hier erkennt man die Koeffzienten der ersten Zeile unseres 2. Tableaus. Setzen wir nun x2 = x8 = 0, neue Nullvariable, so ergibt sich aus der 6. Nebenbedingung x1 = 7. Wir befinden uns also in der Skizze im Punkt A. 2 Es gilt α01 = −3/4 < 0, aber α02 = 25/4 > 0. Damit wählen wir ρ = 2. Das bedeutet, dass wir die Variable x2 austauschen wollen. 3 Um zu entscheiden, gegen welche Variable getauscht wird, berechnen wir wieder die Quotienten für alle Zeilen, in denen in der zweiten Spalte positive Zahlen stehen. α30 /α32 = 9/1 = 9, α40 /α42 = 4 · 133/189 = 2.8148, 3 α50 /α52 = = 12/7 = 1.71. 7/4 Das Minimum wird für µ = 5 angenommen, wir werden also x7 austauschen. x7 ←→ x2 . Das neue Tableau berechnet sich nach derselben Melodie wie oben. Wir geben nur das Ergebnis an: −x8 −x7 f˜ −31.71 0.143 −3.571428 x3 81.43 0.71428 3.1428 x4 133.43 1.71428 0.1428 x5 7.2857 0.141428 −0.5714 x6 52 2 −27 x2 1.7143 −0.1428 0.5714 x1 10 0 1 Setzen wir zur Überprüfung an Hand der Skizze x7 = 0, so ergibt sich aus der 5. Nebenbedingung x1 = 10. Dies und x8 = 0 in die 6. Nebenbedingung eingesetzt, ergibt x2 = 12/7. Diese Zahlen finden wir auch im Tableau in der ersten Spalte bei x1 und x2 . Wir sind im Punkt B der Skizze. 2 Hier ist nur noch einer der beiden Koeffizienten in der ersten Zeile positiv, also wählen wir ρ = 1. 3 Die vier Quotienten sind 114, 94.34, 61.67, 26. Wir haben oben in der Tabelle bereits die 2 umrahmt. Also wird so getauscht: x6 ←→ x8

198

4 Lineare Optimierung Das damit neu berechenbare Tableau lautet: −x6 −x7 f˜ −35.4285 −0.0714 −3.2873 x3 62.859 −0.3571 12.957 x4 96.6567 −0.70714 19.2356 x5 5.0959 −0.07143 0.9714 x8 26 0.5 −13.5 x2 5.428 0.071425 −1.356 x1 10 0 1 Hier sind nun alle beiden Koeffizienten in der ersten Zeile negativ, also sind wir am Ende, das vorliegende Tableau ist optimal. 4 Die Lösung entnehmen wir dem Tableau: x1 = 10,

x2 = 5.428,

f˜(x1 , x2 ) = −35.4285.

Der maximale Wert von f beträgt also 35.4285.

Die Werte von x1 und x2 führen uns zum Punkt C in der Skizze. Damit stimmen graphische und rechnerische Lösung überein.

Bemerkung: Beim letzten Tableau hätte, um Optimalität zu erkennen, die Berechnung der ersten Zeile ausgereicht. Zur Auswertung des Tableaus hätten wir dann noch die erste Spalte berechnen müssen. Wir haben das vollständige Tableau der Schönheit wegen aufgeführt. Aufgabe 4.4 Eine Firma produziert zwei Sorten von Kästen K, L mittels zweier Maschinen M1 , M2 . Zum Produzieren von K benötigt Maschine M1 zwei Minuten, Maschine M2 vier Minuten,für L benötigt Maschine M1 acht Minuten, Maschine M2 vier Minuten. Der Gewinn für die Firma beträgt bei Produkt K Produkt L 45 WE.

29 WE (Währungseinheiten) und bei

Wieviel Kästen K und L müssen pro Stunde hergestellt werden, damit die Firma einen möglichst großen Gewinn erzielt ? Wir machen dabei die vereinfachende Annahme, dass beide Maschinen jeweils dieselbe Anzahl von Kästen K und L pro Stunde produzieren. (Sonst gibt es vielleicht Probleme bei der Bereitstellung des Rohstoffes.)

4.3 Anwendungsaufgaben

199

Lösung: Wir benennen die Anzahl der Kästen K, die pro Stunde hergestellt werden, mit x1 , die Anzahl der Kästen L pro Stunde mit x2 . Dann lautet unsere Zielfunktion, die wir zu maximieren haben: f (x1 , x2 ) = 29x1 + 45x2 . Sie gibt den Gewinn pro Stunde und pro Maschine an. Die Herstellungsdauer der Kästen bei den einzelnen Maschinen führt uns zu den Nebenbedingungen, wobei wir alles entsprechend der Fragestellung auf eine Stunde, also 60 Minuten beziehen: 2x1 + 8x2 ≤ 60, 4x1 + 4x2 ≤ 60,

x1 ≥ 0, x2 ≥ 0.

Die folgende graphische Darstellung erläutert die Situation. An der Skizze können wir darüber hinaus bereits die Lösung ablesen. 6

@ @ Q

@ Q Q @ 10 QQ@ XX Q@ XXX Q B X@  Q@ X C   X QXXX   Q XXX @ Q b XXX @ Q b   XX  @ Q b XXX b Q XX @ X b 10 30 O A @ QQ b b Q bb @ @ Q Q

Abbildung 4.3: Graphische Lösung zu Aufgabe 4.4 Wir haben die Zielfunktion, die den Gewinn 0 erzeugt und daher durch den Nullpunkt verläuft, eingetragen. Verschiebt man diese Gerade nach rechts, so steigt der Wert. Sein Maximum wird in dem schraffierten Bereich im Punkt B angenommen. Die dickere Linie durch den Punkt B ist die Zielfunktion. Lesen wir die Koordinaten aus der Skizze ab, so folgt das Ergebnis: Maximum von f im PunktB = (10, 5), Gewinn = 515.

200

4 Lineare Optimierung

Zur rechnerischen Durchführung des Simplex–Algorithmus bringen wir die Nebenbedingungen zunächst in die Form von Gleichungen durch Einführung von sogenannten Schlupfvariablen: 2x1 + 8x2 + x3 = 60, 4x1 + 4x2 + x4 = 60. Dann müssen wir die Aufgabe so umformen, dass das Minimum einer Funktion gesucht wird. Wir bilden also wie oben die Funktion: f˜(x1 , x2 ) = −f (x1 , x2 ) = −29x1 − 45x2 . Die Voraussetzung zur Durchführung des Simplexalgorithmus ist erfüllt: rg(A) = 2 = Anzahl der Nebenbedingungen. Wir wählen als erste Basislösung x1 = x2 = 0. Zum Aufbau des ersten Simplextableaus schreiben wir die Zielfunktion und die Nebenbedingungen so auf, dass wir die Zahlen direkt ins Tableau übernehmen können: α00 = f˜(x1 , x2 ) = 0 + 29(−x1 ) + 45(−x2 ), x3 = 60 + 2(−x1 ) + 8(−x2 ), x4 = 60 + 4(−x1 ) + 4(−x2 ). Das führt zu folgendem ersten Tableau: −x1 −x2 f 0 29 45 x3 60 2 8 x4 60 4 4 Nun steigen wir in unser Verfahren aus Aufgabe 4.2 ein.

2 In der ersten Zeile stehen nur positive Zahlen. Wir wählen 45 als die größere Zahl, das heißt, wir wählen ρ = 2. Bei einer Änderung der Zielfunktion erreichen wir damit den größeren Effekt. Das wiederum bedeutet, dass wir die Nullvariable x2 austauschen. 3 Wir untersuchen die ρ–te, also die zweite Spalte: Falls alle Spaltenelemente kleiner oder gleich Null sind, so ist die Zielfunktion nach unten unbeschränkt, es gibt also kein Minimum. Hier sind aber beide Elemente größer als Null. Für diese bilden wir die Quotienten αµ0 /αµρ : µ=1:

60/8 = 7.5, µ = 2 :

60/4 = 15.

4.3 Anwendungsaufgaben

201

Der kleinste Wert wird für µ = 1 erhalten. Wir haben dieses Ergebnis in obigem Schema durch Umrahmung der 8 vorweggenommen. Es führt dazu, dass x3 neue Basisvariable wird. Wir führen also den Tausch durch: x3 ←→ x2 . Berechnung des neuen Tableaus für µ = 1, ρ = 2: −x1 −x3 f −337.5 17.75 −5.625 x2 7.5 0.25 0.125 x4 30 3 −0.5 Setzen wir nun x1 = x3 = 0, neue Nullvariable, so ergibt sich aus der 1. Nebenbedingung x2 = 7.5. Wir befinden uns also in der Skizze im Punkt C. 2 Es gilt α01 = 17.75 > 0, aber α02 = −5.625 < 0. Damit wählen wir ρ = 1. Das bedeutet, dass wir die Variable x1 austauschen wollen. 3 Um zu entscheiden, gegen welche Variable getauscht wird, berechnen wir wieder die Quotienten für alle Zeilen, in denen in der ersten Spalte positive Zahlen stehen. α10 /α11 = 7.5/0.25 = 30, α20 /α21 = 30/3 = 10. Das Minimum wird für µ = 2 angenommen, wir werden also x4 austauschen. x4 ←→ x1 . Das neue Tableau lautet damit: −x4 −x3 f −515 −5.916¯ −2.6¯ x2 5 −0.08¯3 0.1¯6 x1 10 0.¯3 −0.1¯6 Hier sind nun alle beiden Koeffizienten in der ersten Zeile negativ, also sind wir am Ende, das vorliegende Tableau ist optimal. 4 Die Lösung läßt sich unmittelbar aus dem Tableau ablesen: x1 = 10,

x2 = 5,

f˜(x1 , x2 ) = −515.

Der maximale Wert von f beträgt also 515.

202

4 Lineare Optimierung

Die Werte von x1 und x2 führen uns zum Punkt B in der Skizze. Damit stimmen graphische und rechnerische Lösung überein. Jede Maschine sollte also zur Gewinnmaximierung 10 Kästen K und 5 Kästen L pro Stunde herstellen. Dann gilt in beiden Nebenbedingungen das Gleichheitszeichen, das heißt, beide Maschinen sind voll ausgelastet. Der Gesamtgewinn bei Einsatz beider Maschinen beträgt dann 1030 WE pro Stunde. Aufgabe 4.5 In einer Fabrik können zwei verschiedene Produkte I und II hergestellt werden unter Verwendung von drei Produktionsmitteln A, B und C, die beschränkt verfügbar sind (beschränkte Kapazitäten). Die Vorgaben sind in untenstehender Tabelle enthalten. Bestimmen Sie die Mengen x1 und x2 der herzustellenden Produkte I und II so, dass der damit erzielte Gewinn möglichst groß wird.

A B C Gewinn/Einheit

I 2 6 10 45

II 10 6 5 30

Kapazitäten 60 60 85

Lösung: Wieder sind zwei Größen, nämlich x1 und x2 gesucht, wir können uns also in einer graphischen Darstellung die Verhältnisse veranschaulichen. Die Zielfunktion lautet auf Grund der Daten: f (x1 , x2 ) = 45x1 + 30x2 . Aus der Tabelle entnehmen wir als Nebenbedingungen: 2x1 + 10x2 ≤ 60, 6x1 + 6x2 ≤ 60, 10x1 + 5x2 ≤ 85.

xi ≥ 0,

i = 1, . . . , 5,

Die Skizze 4.4 zeigt uns das Polygon, welches aus den Nebenbedingungen gebildet wird. Die fünf Ecken sind: (0, 0), (8.5, 0), (7, 3), (5, 5), (0, 6). Außerdem haben wir die Zielfunktion durch 0, also mit Wert 0 eingezeichnet. Ein Verschieben dieses Funktionsgraphen nach rechts bewirkt eine Vergrößerung des Wertes, so dass sich die dicker eingetragene Linie durch (7, 3) als diejenige ergibt, welche den maximalen Wert im Polygon annimmt. Damit lautet die Lösung:

Der größte Gewinn wird erzielt, wenn 7 Einheiten von I und 3 Einheiten von II hergestellt werden. Der Gewinn beträgt dann 405. Die Kapazitäten von B und C werden dabei

4.3 Anwendungsaufgaben

203

6 D ``` ``` J ``` ``@ ``J` 5 C@ J @J @JA @  AB J 3  @ AJ  " AJ  "  " AJ  "  AJ J1 "   " J AJ  "   "  J AJ J 1 5 7 O AA 9 A J J

Abbildung 4.4: Graphische Darstellung zu Aufgabe 4.5

voll ausgeschöpft (die Nebenbedingungen ergeben Gleichheit), wohingegen für A eine Überkapazität vorhanden ist (44 < 60).

Nun zum algorithmischen Vorgehen mit dem Simplex–Verfahren: Zunächst haben wir wieder die Aufgabe wie schon bei den Aufgaben zuvor, die für das Simplex–Verfahren erforderliche Form herzustellen. Dazu muß als erstes die Zielfunktion so umgeformt werden, dass ihr Mimimum gesucht wird. Wir betrachten daher für unseren Algorithmus die Funktion: f˜(x1 , x2 ) = −45x1 − 30x2 . Führen wir wieder „Schlupfvariable“ ein, so ergeben sich die Nebenbedingungen: 2x1 + 10x2 + x3 = 60 6x1 + 6x2 + x4 = 60 10x1 + 5x2 + x5 = 85 xi ≥ 0,

i = 1, . . . , 5.

Die Voraussetzung zur Durchführung des Simplexalgorithmus ist erfüllt: rg(A) = 3 = Anzahl der Nebenbedingungen. Aus den vorangegangenen Aufgaben dürfte der grundsätzliche Aufbau des ersten Table-

204

4 Lineare Optimierung

aus klar geworden sein. Es lautet: f x3 x4 x5

−x1 −x2 0 45 30 60 2 10 60 6 6 85 10 5

2 In der ersten Zeile stehen nur positive Zahlen. Wir wählen 45 als die größere Zahl, das heißt, wir wählen ρ = 1. Das wiederum bedeutet, dass wir die Nullvariable x1 austauschen. 3 Wir untersuchen die ρ–te, also die erste Spalte: Falls alle Spaltenelemente kleiner oder gleich Null sind, so ist die Zielfunktion nach unten unbeschränkt, es gibt also kein Minimum. Hier sind aber beide Elemente größer als Null. Für diese bilden wir die Quotienten αµ0 /αµρ : µ=1:

60/2 = 30, µ = 2 :

60/6 = 10, µ = 3 :

85/10 = 8.5.

Der kleinste Wert wird für µ = 3 erhalten. Wir haben dieses Ergebnis in obigem Schema durch Umrahmung der 10 vorweggenommen. Es führt dazu, dass x5 neue Basisvariable wird. Wir führen also den Tausch durch: x5 ←→ x1 . Berechnung des neuen Tableaus für µ = 3, ρ = 1: −x5 −x2 f −382.5 −4.5 7.5 x3 43 −0.2 9 x4 9 −0.6 3 x1 8.5 0.1 0.5 Setzen wir nun x2 = x5 = 0, neue Nullvariable, so ergibt sich aus der 3. Nebenbedingung x1 = 8.5. Wir befinden uns also in der Skizze im Punkt A. 2 Es gilt α02 = 7.5 > 0, aber α01 = −4.5 < 0. Damit wählen wir ρ = 2. Das bedeutet, dass wir die Variable x2 austauschen wollen. 3 Um zu entscheiden, gegen welche Variable getauscht wird, berechnen wir wieder die Quotienten für alle Zeilen, in denen in der zweiten Spalte positive Zahlen stehen. α10 /α12 = 43/9 = 4.¯7, α20 /α22 = 9/3 = 3, α30 /α32 = 8.5/0.5 = 17.

4.3 Anwendungsaufgaben

205

Das Minimum wird für µ = 2 angenommen, wir werden also x4 austauschen. x4 ←→ x2 . Das neue Tableau lautet damit: −x5 −x4 f −405 −3 −2.5 x3 16 1.6 −3 x2 3 −0.2 0.¯3 x1 7 0.2 −0.1¯6 Hier greift nun Schritt 2 nicht mehr, denn alle Koeffizienten in der ersten Zeile sind negativ. Also sind wir am Ende. 4 Das vorliegende Tableau ist optimal. Die Lösung läßt sich unmittelbar aus dem Tableau ablesen: x1 = 7, x2 = 3, f˜(x1 , x2 ) = −405. Der maximale Wert von f beträgt also 405. Die Werte von x1 und x2 führen uns zum Punkt B in der Skizze. Damit stimmen graphische und rechnerische Lösung überein. Aufgabe 4.6 Bestimmen Sie das Maximum der folgenden Zielfunktion f (x1 , x2 ) = x1 + x2 mit dem Simplexverfahren unter den Nebenbedingungen i) ii) iii)

x1 + x2 ≤ 4, x2 ≤ 3, 2x1 + x2 − 6 ≤ 0,

x1 ≥ 0, x2 ≥ 0.

Lösung: Der Typ der Aufgabe ist wie oben vorgestellt. Wir können uns also bei der Wiedergabe der Lösung kurz fassen. max f (x1 , x2 ) = − min(−f (x1 , x2 )) : f˜(x1 , x2 ) := −f (x1 , x2 ) = −x1 − x2 . Einführung von Schlupfvariablen: x1 + x2 + x3 = 4, x2 + x4 = 3, 2x1 + x2 x5 = 6.

206

4 Lineare Optimierung x2 6 6 @ @

A A @ Aiii) i) @ A @ A @ @ A @ ii) @ A @ # # @A # # D C # @ @A h B 2  @ @ A @ @ A @ A@  @ @ "A @  " @  " @ @ f A @ @ O A A @ @ @ A @ A @

x1

Abbildung 4.5: Graphische Darstellung zu Aufgabe 4.6

Wie man sofort feststellt, hat die Zielfunktion die gleiche Steigung wie die Gerade für die erste Nebenbedingung. Das bedeutet, wie man an der Skizze 4.5 auch leicht sieht, dass jeder Punkt der Kante zwischen B und C zum maximalen Wert von f , nämlich zum Wert 4 führt. Mal sehen, welchen Punkt sich der Simplex–Algorithmus heraussucht.

1 Erste zulässige Basis: x1 = x2 = 0 (Nullvariable), x3 = 4, x4 = 3, x5 = 6.

x3 x4 x5

1 0 4 3 6

−x1 1 1 0 2

−x2 1 1 1 1

2 1. Zeile α01 = 1, α02 = 1, alle > 0. Da beide Werte gleich sind, können wir uns frei entscheiden. Wähle ρ = 1, d.h. x1 wird ausgetauscht. 3 Untersuchung der ρ-ten , also 1. Spalte. Falls alle Zahlen ≤ 0, so ist die Zielfunktion f unbeschränkt. Berechne die Quotienten αµ0 /αµρ , µ = 1, 2, 3. 6/2 = 3 ist minimal, also vertausche x1 mit x5 : x1 ↔ x5 , µ = 3.

4.3 Anwendungsaufgaben Neues Tableau:

x3 x4 x1

207

1 −3 1 3 3

−x5 −1/2 −1/2 0 1/2

−x2 1/2 1/2 1 1/2

2 1. Zeile α01 = −1/2 < 0, α02 = 1/2 > 0, ρ = 2, also wird x2 ausgetauscht. 1 = 2 minimal, also x2 ↔ x3 , µ = 1. 1/2 Neues Tableau: 1 −x5 −x3 −4 0 −1 x2 2 −1 2 x4 1 1 −2 x1 2 1 −1

3 2. Spalte:

2 1. Zeile: alle Koeffizienten negativ. 4 Schema optimal! Die erste Spalte liefert dann die Lösung: x1 = 2, x2 = 2, f˜(x1 , x2 ) = −4, d.h. das Maximum von f ist 4 und wird angenommen bei (x1 , x2 ) = (2, 2). Der Simplex–Algorithmus führt uns zum Punkt B. Hätten wir beim ersten Austausch ρ = 2 gewählt und daher x3 gegen x2 getauscht, so wären wir beim Punkt C als Optimum gelandet. Wir sehen also, dass der Simplex–Algorithmus nicht sämtliche Lösungen, sondern lediglich eine Lösung findet.F Aufgabe 4.7 Ein Kaufmann hat 20 kg Nüsse und 30 kg Rosinen zum Preis von 9 –C bzw. 5 –C je Kilogramm eingekauft. Die Nüsse bzw. die Rosinen kann er mit 12 –C bzw. 7 –C je Kilogramm verkaufen. Er kann aber auch eine Mischung aus x Kilogramm Nüssen und y Kilogramm Rosinen (Studentenfutter) herstellen, die er für 10 –C je Kilogramm verkaufen kann. Die Mischung muß dabei folgender Vorschrift genügen: Wenn man 6 kg von der Mischung subtrahiert, muß der Anteil der Nüsse am Rest mindestens 25 % betragen. Welches ist die optimale Verkaufsstrategie?

Lösung: Die Nebenbedingungen lauten: 0 ≤ x ≤ 20 0 ≤ y ≤ 30 y ≤ 3x + 6

x ≥ 25% von der (Gesamtmischung −6 kg): 25 x ≥ (x + y − 6) ⇔ 3x + 6 ≥ y 100

208

4 Lineare Optimierung

Der Gewinn errechnet sich nach folgender Formel: G(x, y) = 1 x + 5 y + 3 (20 − x) + 2 (30 − y) = 120 + 3 y − 2 x Bei x = y = 0 ergibt sich der Gewinn 120 –C. Das ist also der Gewinn, wenn man die Nüsse und die Rosinen einzeln verkauft und kein Studentenfutter herstellt. (a): Beginnen wir mit der graphischen Lösung. y = 3x + 6

y 6

  h 

30

x = 20 y = 30

  

20

   

3y − 2x = 0 

    J  J   T J  J  T  8 10 20

10

x

Abbildung 4.6: Graphische Lösung Studentenfutter Die Abbildung 4.6 zeigt, daÜ der maximale Gewinn bei x = 8, y = 30 erreicht wird. Daraus errechnet sich der Gewinn zu G(8, 30) = 194 –C (b): Es genügt, die Funktion f (x, y) = 3 y − 2 x zu maximieren; denn die additive Konstante ändert nicht den Punkt, wo das Maximum angenommen wird. Für das Simplex–Verfahren müssen wir die Aufgabe wieder umformulieren. Gesucht ist das Minimum der Funktion f˜(x, y) = 2 x − 3 y mit den Nebenbedingungen : x + x3 = 20 y + x4 = 30 −3x + y + x5 = 6

4.3 Anwendungsaufgaben

209

1. Tableau: f x3 x4 x5

−x −y 0 −2 3 20 1 0 30 0 1 6 −3 1

% = 2 (3 ist größtes pos. Element in f ). 20/0 −− Bestimmung von µ: 30/1 = 30 6/1 = 6

Der kleinste positive Wert tritt in der dritten Zeile auf. Wir setzen also µ = 3. Tausche x5 ↔ y 2. Tableau: −x −x5 f −18 7 −3 x3 20 1 0 x4 24 3 −1 y 6 −3 1

% = 1 (7 ist einziges pos. Element in f ). 20/1 = 20 Bestimmung von µ : 24/3 = 8 6/ − 3

Der kleinste positive Wert ist hier in der zweiten Zeile, also wählen wir µ = 2 (der Wert in der dritten Zeile wird negativ, bleibt also unbeachtet). Tausche x4 ↔ x 3. Tableau: −x4 −x5 f −74 − 73 − 23 x3 12 x

8

y 30

− 13 1 1 −1 3 3 1

0

Hier sind nun alle Zahlen in der ersten Zeile negativ, also sind wir fertig. Die Lösung entnehmen wir der zweiten Spalte: Minimum bei x = 8, y = 30 mit Wert −74 Maximaler Gewinn also bei x = 8, y = 30 mit G(8, 30) = 120 + 74 = 194 –C. Übrigens bleiben bei dieser Mischung 12 kg Nüsse ungemischt, die der clevere Kaufmann

210

4 Lineare Optimierung

jetzt noch einzeln mit einem Gewinn von 3 –C pro Kg verkaufen kann. Das ergibt noch mal 36 –CGewinn. Sein Gesamtgewinn bneträgt demnach Gesamtgewinn 230 –C.

5

Interpolation

5.1

Newton–Interpolation

Aufgabe 5.1 (a) Bestimmen Sie nach Newton ein Polynom möglichst niedrigen Grades, das bei x0 = −2, x1 = −1, x2 = 0, x3 = 2 mit f (x) = x5 übereinstimmt. (b) Berechnen Sie mit Hilfe der in (a) gewonnenen Daten ein Polynom, welches zusätzlich noch bei x = 1 mit f (x) = x5 übereinstimmt. Lösung: Zu (a) Sind n + 1 Stützstellen x0 , x1 , . . . , xn und zugehörige Werte y0 , y1 , . . ., yn gegeben, so hat das diese Daten interpolierende Polynom nach einer Formel von Newton die folgende Gestalt:

Newton–Polynom p(x) = a0 + a1 (x − x0 ) + . . . + an (x − x0 ) · · · (x − xn−1 )

Man beachte die Indizes in der obigen Darstellung. Es entsteht offenbar ein Polynom n-ten Grades, wie es auch bei n+1 vorgegebenen Stützstellen zu erwarten ist. Die Stützstelle xn wird direkt nicht einbezogen; aber sie ist natürlich bei der Berechnung der Koeffizienten verwendet worden. Diese Koeffizienten a0 , a1 , . . . , an sind dabei die aus den Daten gebildeten 0-ten, 1-ten, . . . , n-ten Differenzenquotienten. Die Definition dieser Differenhzenquotienten zeigen wir in der Tabelle auf Seite 212. Wir wählen zur Berechnung der Differenzenquotienten die für die Newton-Interpolation typische Anordnung in einer Tabelle, in der zunächst in der ersten Spalte die sogenannten Stützstellen, also die x–Werte angeordnet sind. In die zweite Spalte kommen die zugehörigen Funktionswerte. Das sind bei unserer Aufgabe jeweils die fünften Potenzen der x–Werte. Aus diesen Werten bilden wir dann die Differenzenquotienten, die wir in der dritten Spalte versetzt anordnen zwischen den Werte, aus denen der Differenzenquotient gebildet wurde. In die vierte Spalte kommen danach entsprechend versetzt die zweiten Differenzenquotienten usw.

212

5 Interpolation

Differenzenquotienten [x0 ] = a0 = f (x0 ) f (x1 ) − f (x0 ) [x1 , x0 ] = a1 = x1 − x0 [x2 , x1 ] − [x1 , x0 ] [x2 , x1 , x0 ] = a2 = x2 − x0 [x3 , x2 , x1 ] − [x2 , x1 , x0 ] [x3 , x2 , x1 , x0 ] = a3 = x3 − x0 [xn , . . . , x1 ] − [xn−1 , . . . , x0 ] [xn , . . . , x0 ] = an = xn − x0 Das Berechnungsschema für die in der Aufgabe vorgegebenen Werte sieht folgendermaßen aus:

−2 −32 31 −1

−1

0

0

2

32

−15 1

5 5

16

Dieses Schema wird nun folgendermaßen ausgewertet: Wir haben bereits die entscheidenden Werte umrahmt. Das Newton–Polynom setzt sich zusammen aus den umrahmten Zahlen als Koeffizienten und Linearfaktoren, gebildet aus den zugehörigen Stützstellen:

p(x) = −32 + 31(x − (−2)) − 15(x − (−2))(x − (−1)) + 5(x − (−2))(x − (−1))(x − 0) = −32 + 31(x + 2) − 15(x + 2)(x + 1) + 5(x + 2)(x + 1)x.

Zu (b) Einer der entscheidenden Vorteile der Interpolation nach Newton liegt darin, dass man bei Hinzufügung einer weiteren Stützstelle die bisherige Rechnung voll übernehmen kann. Man fügt schlichtweg an obiges Schema eine weitere Zeile an, wenn man eine weitere Stützstelle berücksichtigen möchte. Das sieht dann so aus:

5.1 Newton–Interpolation

213 −2 −32 31 −1

−1

−15 1

0

0

5 5

16 2

32

0 5

15 31

1

1

Zufällig ergibt sich hier als letzter Differenzenquotient eine 0. Das bedeutet, dass unser oben berechnetes Polynom diese weitere Interpolationsbedingung p(1) = 1 bereits erfüllt. Prinzipiell sieht das neue Interpolationspolynom so aus: p(x) = −32 + 31(x − (−2)) − 15(x − (−2))(x − (−1)) +5(x − (−2))(x − (−1))(x − 0) +0(x − (−2))(x − (−1))(x − 0)(x − 2) = −32 + 31(x + 2) − 15(x + 2)(x + 1) + 5(x + 2)(x + 1)x. Aufgabe 5.2 Gegeben sei folgende Wertetabelle der Funktion y = sin x : x 0.783 0.784 0.785 0.786 0.787 sin x 0.705409 0.706117 0.706825 0.707532 0.708239 Berechnen Sie aus dieser Tabelle durch quadratische Interpolation mit Hilfe der Newton– Interpolation eine Näherung für x0 = arcsin 0.707. Lösung: Umgekehrt zu Aufgabe 5.1 wird hier eine Stützstelle x0 gesucht, so dass sin x0 = 0.707 ist, also x0 = arcsin 0.707. Nach obiger Tabelle liegt x0 zwischen 0.785 und 0.786. Um ein Interpolationspolynom für arcsin zu entwickeln, betrachten wir also die folgende Tabelle, bei der in der ersten Spalte die gegebenen Funktionswerte stehen, d.h. die zur arcsin–Funktion passende Tabelle zur Newton–Interpolation: 0.705409 0.783 0.706117 0.784 0.706825 0.785 0.707532 0.786

0.786−0.785 0.707532−0.706825

= 1.4144271

0.708239 0.787

0.787−0.786 0.708239−0.707532

= 1.4144271

1.4144271−1.4144271 0.708239−0.706825

= 0

214

5 Interpolation

Da der gesuchte Wert zwischen 0.706825 und 0.707532 liegt, starten wir die Newton– Interpolation an dieser Stelle. Wir ignorieren also die ersten beiden Zeilen im obigen Schema und berechnen für die letzten drei Zeilen die Differenzenquotienten. Zufällig verschwindet im Rahmen unserer Rechengenauigkeit der zweite Differenzenquotient. Wir erhalten also als Interpolationspolynom lediglich ein Polynom ersten Grades. Die eingerahmten Zahlen werden benutzt zur Aufstellung des linearen Polynoms p(x), welches die arcsin–Funktion interpoliert: p(x) = 0.785 + 1.4144271(x − 0.706825) +0 · (x − 0.706825)(x − 0.707532). Damit folgt: arcsin 0.707 ≈ p(0.707) = 0.7852475. Aufgabe 5.3 Bestimmen Sie nach Newton das Interpolationspolynom für die Interpolationspunkte: P0 = (−3, −14), P1 = (−1, 6), P2 = (1, 2), P3 = (3, 22), P4 = (5, 114). (Beachte: Äquidistante Stützstellen)

Lösung: Die äquidistanten Stützstellen mit Stützabstand 2 lassen sich gut in das Schema von Newton einbauen. Der Trick besteht darin, keine Quotienten, sondern lediglich Differenzen zu berechnen. Den Abstand der Stützstellen bezieht man dann analog zur TaylorEntwicklung in den Polynomaufbau ein. Gegeben seien n + 1 gleichabständige Stützstellen x0 , x1 , . . . , xn mit dem Abstand h und zugehörige Werte y0 , y1 , . . . , yn . Das diese Daten interpolierende Polynom hat dann nach Newton die folgende Gestalt. Dabei sind die Koeffizienten a0 , a1 , . . . , an hier nicht mehr die Differenzenquotienten (vgl. Seite 212), sondern lediglich Differenzen aus den Nachbarwerten in einem Schema, für das sich historisch eine senkrechte Anordnung eingebürgert hat.

Newton–Polynom bei äquidistanten Stützstellen 1 1 1 1 (x − x0 ) + a2 (x − x0 )(x − x1 ) 1! h1 2! h2 1 1 + . . . + an (x − x0 ) · · · (x − xn−1 ) n! hn

p(x) = a0 + a1

5.1 Newton–Interpolation

215

Die Berechnung der Differenzen führen wir im folgenden Schema vor: −3 −14

−1 6

1 2 −4

20

3 22 20

−24

24 48

5 114 92

72 48

0 Die eingerahmten Zahlen verwenden wir nun als Koeffizienten und bilden nach obiger Regel das Polynom mit h = 2: p(x) = −14 + 20 ·

11 1 1 (x − (−3)) − 24 · (x − (−3))(x − (−1)) 1! 2 2! 22

1 1 (x − (−3))(x − (−1))(x − 1) 3! 23 1 1 +0 · (x − (−3))(x − (−1))(x − 1)(x − 3) 4! 24 = x3 − 3x + 4. +48 ·

Aufgabe 5.4 (a) Stellen Sie das Newton-Interpolationspolynom I(f ) für die Funktion f an den drei Stützstellen a, (a + b)/2, b auf. Rb Rb (b) Bestimmen Sie durch Integration a I(f ) dx eine Näherungsformel für a f (x) dx (die sog. Simpson-Regel). (c) Berechnen Sie mit dieser Regel näherungsweise Z

1.3



xdx,

1.0

und vergleichen Sie das Ergebnis mit dem exakten Wert. Lösung: Zu (a) a

f (a) f ( a+b 2 ) − f (a) a+b 2

a+b 2

f

1 b−a

2

f (b) − b− b

−a

 a+b

f (b)

f ( a+b 2 ) a+b 2

f (b) − f ( a+b 2 ) b−a 2



f ( a+b 2 ) − f (a) b−a 2

!

216

5 Interpolation

Der Nenner in der dritten Spalte läßt sich noch ein wenig vereinfachen, so dass diese Terme sich darstellen als: f ( a+b 2 ) − f (a) b−a 2

,

f (b) − f ( a+b 2 ) b−a 2

.

Damit schreibt sich der Term in der vierten Spalte als: 2·

f (b) − 2f ( a+b 2 ) + f (a) . (b − a)2

Somit ergibt sich folgendes Interpolationspolynom: f ( a+b 2 ) − f (a) (x − a) b−a f (b) − 2f ( a+b a+b 2 ) + f (a) +2 · · (x − a)(x − ). (b − a)2 2

I(f ) = f (a) + 2 ·

Zu (b) Eine kurze Nebenrechnung mit partieller Integration zeigt: Z

b

(x − a)(x − a

b a+b a + b p.I. 1 ) dx = (x − a)2 (x − ) 2 2 2 a Z b 1 − (x − a)2 dx a 2 1 b−a 1 = (b − a)2 ( ) − (b − a)3 2 2 6 1 = (b − a)3 . 12

Damit folgt dann: Z

b

I(f ) dx = f (a)(b − a) + 2 a

f ( a+b 2 ) − f (a) 1 (b − a)2 b−a 2

f (b) − 2f ( a+b 1 2 ) + f (a) · (b − a)3 (b − a)2 12   a+b 1 a+b = f( ) · (b − a) + f (b) − 2f ( ) + f (a) (b − a) 2 6 2   b−a a+b = f (a) + 4f ( ) + f (b) . 6 2 +2

Diese Formel wird in der Literatur auch als Keplersche Faßregel bezeichnet, weil Johannes Kepler sie 1612 entwickelte, um den Inhalt von Weinfässern abzuschätzen.

5.1 Newton–Interpolation

217

Zu (c) Z

1.3



x dx ≈

1.0

exakter Wert: Z 1.3 √ 1

0.3 (1 + 4 · 1.0723805 + 1.1401754) = 0.3214848, 6

1.3 2 √ 3 2 √ 3 2 x dx = ( x) = ( 1.3 − 1) = (1.482228 − 1) = 0.3214853. 3 3 3 1

Aufgabe 5.5 In der folgenden Tabelle, in der in der zweiten Zeile die Funktionswerte eines Polynoms 4. Grades zu den äquidistanten Stützstellen 1, . . . , 11 aufgeschrieben wurden, ist ein Funktionswert falsch. Berichtigen Sie ihn:

1 2 3 4 5 6 7 8 9 10 11 370 397 451 543 683 880 1124 1476 1888 2383 2965 Lösung: Von den Differenzenquotienten weiß man, dass für ein Polynom n-ten Grades der (n+1)-te Differenzenquotient verschwindet, analog zur (n+1)-ten Ableitung. Für unser vorgegebenes Polynom 4. Grades ist also der fünfte Differenzenquotient gleich 0. Des weiteren beachten wir, dass die Stützstellen für die Werte äquidistant liegen. Wir können uns also auf die Berechnung der Differenzen beschränken. Versuchen wir nun herauszufinden, wie sich ein Fehler in einem Funktionswert bei der Differenzenberechnung fortpflanzt, so gelangen wir zu folgendem Schema, wobei wir annehmen wollen, dass ein Fehler der Größe  im Funktionswert f (x0 ) auftrat: x−3 0

x−2 0 0

0

x−1 0

−3 −4

 −5



−2

 

x1 0

x2 0

−



0 0

0

x0 

0 0 − −4

6 −10

10

0

 3

x3 0 0 0

 5

−

Berechnen wir nun in gleicher Weise das Differenzenschema für unsere oben vorgegebenen Daten, wobei wir aus Platzmangel nicht das volle Schema, sondern nur den wesentlichen Teil wiedergeben, so erhalten wir: 3 451 54

4 543 92

38 11

140 48

10 −1

0

5 683 197 57 −19 −18

7 1124 244

47 −10

9 −1

0

6 880

352 108 −109

−180

412 60

−48

61 71

90

8 1476

23 71

180

−90

218

5 Interpolation

Wie oben erläutert, dürfte die letzte Zeile nur noch aus 0 bestehen. Legen wir im Geiste beide Schemata übereinander, so erkennen wir, dass beim Wert für 7 ein Fehler  aufgetreten sein muß und dass  den Wert −18 hat. Damit ergäbe sich in der Tat −5 = 90, 10 = −180, −10 = 180, 5 = −90. So kommen wir zu dem Ergebnis, dass der richtige Wert bei 7 lauten muß: f (7) = 1124 −  = 1124 + 18 = 1142. Man kann sich ja vorstellen, dass dieser Fehler beim Abschreiben des Wertes durch ein Vertauschen der letzten beiden Ziffern entstanden ist.

5.2

Hermite–Interpolation

Die Aufgabe besteht darin, nicht nur Funktionswerte zu interpolieren, sondern auch noch die vorgegebenen Ableitungswerte an den Stützstellen einzuhalten. Zum Glück läßt sich auch diese Aufgabe schematisch erledigen. Man braucht dazu lediglich das ursprüngliche Newton–Schema geeignet zu erweitern.

Hermite–Interpolation Wir schreiben in die erste Zeile die Stützstellen, aber jede so oft, wie dort Werte vorgegeben sind. In die zweite Zeile übertragen wir dann die Funktionswerte aus der Tabelle, indem wir sie eventuell mehrfach niederschreiben. Die nächste Zeile enthält die Differenzenquotienten, soweit sie aus dem Schema berechenbar sind. Gelangt man an einen Platz, wo der Nenner des Quotienten 0 würde wegen gleicher Stützstellen, so schreiben wir an diese Stelle den vorgegebenen Ableitungswert zu dieser Stützstelle, auch diesen eventuell mehrfach. Die vierte Zeile enthält die zweiten Differenzenquotienten, soweit man sie aus dem Schema berechnen kann, ansonsten aber die vorgegebenen zweiten Ableitungen, allerdings dividiert durch 2!. In gleicher Weise enthält die fünfte Zeile entweder die dritten Differenzenquotienten oder, falls man bei deren Berechnung auf eine Division durch 0 stößt, die dritte Ableitung zu dieser Stützstelle, dividiert durch 3! usw. In der ersten Schrägzeile stehen dann wie bei der Newton–Interpolation die Koeffizienten des gesuchten Interpolationspolynoms.

Aufgabe 5.6 Bestimmen Sie ein Polynom möglichst niedrigen Grades, das jeweils der folgenden Wertetabelle genügt: (a) xi f (xi ) f 0 (xi ) f 00 (xi ) 0 1 3 −− 1 6 14 20 3 406 618 −−

5.2 Hermite–Interpolation

219

(b) xi f (xi ) f 0 (xi ) f 00 (xi ) f 000 (xi ) 1 2 7 24 −− −2 35 −65 96 −96 Lösung: Wir zeigen das Verfahren an obiger Teilaufgabe (a): Zu (a) Wir bauen die Tabelle wie oben beschrieben auf. Die unterstrichenen Zahlen sind die gegebenen Daten. x0 0 1

x0 0 1 3

x1 1 6 5

2

x1 1 6

x1 1 6

14

14

9

200

10

7

1

93 41.5

−6

x2 3 406

13.5

x2 3 406 618

209 58

8.25 −1.75

6.5 −2.75

Die umrahmten Zahlen sind nun wieder die Koeffizienten des gesuchten Interpolationspolynoms. Das Ergebnis der Aufgabe lautet demnach: p(x) = 1 + 3 · (x − 0) + 2 · (x − 0)(x − 0) + 7(x − 1)(x − 0)(x − 0) +(−6) · (x − 1)(x − 1)(x − 0)(x − 0) + 6.5 · (x − 1)3 (x − 0)2 +(−2.75) · (x − 3)(x − 1)3 (x − 0)2 = 1 + 3x − 25.75x2 + 66x3 − 58.5x4 + 23x5 − 2.75x6 Zu (b) Das Schema haben wir in Teil (a) erläutert. Wiederum haben wir die gegebenen Daten unterstrichen. x0 1 2

x0 1 2

x0 1 2 −11

7

7 24 2

x1 −2 35

6

−65

2

−65

2

2 0

0

x1 −2 35 −65

96 2

− 96 3!

−10

0

x1 −2 35

96 2

18 −4

2

x1 −2 35

220

5 Interpolation

Das gesuchte Polynom lautet dann: · (x − 1)2 + 2 · (x − 1)3

24 2

p(x) = 2 + 7 · (x − 1) +

+ 2 · (x − 1)3 (x + 2) = 2x4 − x + 1. Aufgabe 5.7 Von einem Polynom p sei die folgende Wertetabelle bekannt: i xi p(xi ) p0 (xi ) p00 (xi ) p000 (xi ) 0 1

2

17





1 3

184

377

360

a

Bestimmen Sie den Wert von a ∈ IR so, dass das Polynom p den Grad 4 hat. Wie lautet das gesuchte Polynom? (Umordnung nach Potenzen von x nicht erforderlich.)

Lösung:

Hermite–Interpolation 1

1

3

3

3

3

2

2

184

184

184

184

17

377

91 37

377 360 2

143

− 69 4

360 2 a 6

37 2

53

377



 a − 111 ÷ 2 = a − 111 6 6 12 12

a + 96 24  N.R.:

 a 111 69 a 111 207 a 96 − + ÷2= − + = + . 12 12 4 24 24 24 24 24

Setze a = −96. Das gesuchte Polynom lautet dann: p(x) = 2 + 17(x − 1) + 37(x − 1)2 + 53(x − 1)2 (x − 3) −

69 (x − 1)2 (x − 3)2 . 4

5.3 Spline–Funktionen

221

Probe: p0 (x) = 17 + 74(x − 1) + 106(x − 1)(x − 3) + 53(x − 1)2 69 2 2 − 69 2 (x − 1)(x − 3) − 2 (x − 1) (x − 3), 00 2 p (x) = 74 + 106(x − 3) + 106(x − 1) + 106(x − 1) − 69 2 (x − 3) 69 2 −69(x − 1)(x − 3) − 69(x − 1)(x − 3) − 2 (x − 1) , p000 (x) = 318 − 69(x − 3) − 69(x − 3) − 69(x − 1) − 69(x − 3) −69(x − 1) − 69(x − 1), p(1) = 2, p0 (1) = 17, p(3) = 2 + 2 · 17 + 4 · 37 = 184, p0 (3) = 17 + 2 · 74 + 4 · 53 = 17 + 148 + 212 = 377, p00 (3) = 74 + 2 · 106 + 2 · 106 − 4 · 69 2 = 74 + 424 − 138 = 360, p000 (3) = 318 − 69 · 2 − 69 · 2 − 69 · 2 = 318 − 414 = −96.

5.3

Spline–Funktionen

Aufgabe 5.8 Beschreiben Sie für eine vorgegebene Knotenmenge x0 < x1 < · · · < xn die natürliche kubische Spline–Funktion s, die die Werte der folgenden Tabelle interpoliert: x0 x1 x2 · · · xn y0 y1 y2 · · · yn

Lösung: Der Raum S 3 der kubischen Spline–Funktionen s zu den Interpolationsstellen (x0 , y0 ), . . . , (xn , yn ) ist bekanntlich folgendermaßen definiert:

Kubische Spline–Funktion   s : [x0 , xn ] → IR mit     i) s|[xi ,xi +1] ∈ P 3 i = 0, 1, . . . , n − 1 3 S2 (x0 , x1 , . . . , xn ) := i = 0, 1, . . . , n    ii) s(xi ) 2= yi  iii)s ∈ C [x0 , xn ] Eine kubische Spline–Funktion s ist also stückweise, das heißt in jedem Teilintervall [xi , xi+1 ] ein Polynom höchstens dritten Grades. Es gibt zwei probate Ideen, eine solche Funktion mathematisch zu beschreiben. Als erstes haben wir für jede solche Funktion zwei Möglichkeiten der Darstellung mit den sogenannten Abschneide–Funktionen:

222

5 Interpolation

Darstellungsformel = a0 + a1 x + a2 x2 + a3 x3 + b1 (x − x1 )3+ + · · · + bn−1 (x − xn−1 )3+ i s(x) ii s(x) = c0 + c1 x + d0 (x − x0 )3+ + · · · + dn (x − xn )3+

Dabei sei der Index + so festgelegt:

Abschneidefunktion  (x − xi )3 für x ≥ xi 3 (x − xi )+ = 0 für x < xi

Diese Darstellungen – beide liefern dasselbe Ergebnis – nennt man auch Darstellung durch einseitige Splines. Der große Vorteil liegt in der Einheitlichkeit, aber der Nachteil zeigt sich, wenn man eine solche Funktion punktweise auswerten möchte. Dann wird man doch durch die Abschneide–Funktionen behindert. Die zweite Beschreibung hebt voll darauf ab, dass Spline–Funktionen stückweise definiert sind. Wir geben also in jedem Teilintervall ein Polynom dritten Grades vor durch die folgende Festlegung:

Stückweise definierte kubische Spline–Funktion  a0 + b0 (x − x0 ) + c0 (x − x0 )2 + d0 (x − x0 )3 in [x0 , x1 ]     a1 + b1 (x − x1 ) + c1 (x − x1 )2 + d1 (x − x1 )3 in [x1 , x2 ] s(x) = · · ·   − xn−1 )2 +   an−1 + bn−1 (x − xn−1 ) + cn−1 (x +dn−1 (x − xn−1 )3 in [xn−1 , xn ]

Unter einer natürlichen Spline–Funktion verstehen wir eine Funktion nach obigem Muster, die außerhalb der vorgegebenen Knotenmenge ein Polynom ersten Grades ist. Dies wird mathematisch ausgedrückt durch die Forderung, dass die zweiten Ableitungen am linken und rechten Interpolationsknoten verschwinden. Aufgabe 5.9 Berechnen Sie über die Darstellungsformel mit den Abschneidefunktionen die natürliche kubische Splinefunktion s, die f (x) = x4 in den Punkten x0 = −1, x1 = 0, x2 = 1 interpoliert.

5.3 Spline–Funktionen

223

Lösung: Vorgegeben sind in der Aufgabe drei Stützstellen mit zugehörigen Knotenwerten, wir haben also n = 2 zu setzen. Mit der Formel i) aus Aufgabe 5.8 suchen wir also eine Darstellung der natürlichen Splinefunktion zur Funktion f (x) = x4 der folgenden Form: s(x) = a0 + a1 x + a2 x2 + a3 x3 + b1 (x − x1 )3+ . Hier sind also fünf Unbekannte zu bestimmen: a0 , . . . , a3 , b1 . Dafür stehen zunächst drei Interpolationsbedingungen zur Verfügung, die uns drei Gleichungen liefern: s(−1) = 1 : a0 − a1 + a2 − a3 + 0 = 1, s(0) = 0 : a0 = 0, s(1) = 1 : a0 + a1 + a2 + a3 + b1 = 1. Die restlichen zwei Gleichungen gewinnen wir aus der Forderung, dass s ein natürlicher Spline werden soll. Dies bedeutet ja: s00 (x0 ) = s00 (x2 ) = 0 Es gilt nun: s0 (x) = a1 + 2a2 x + 3a3 x2 + 3b1 (x − x1 )2+ , s00 (x) = 2a2 + 6a3 x + 6b1 (x − x1 )+ . Das führt auf die beiden weiteren Gleichungen: s00 (−1) = 0 : 2a2 − 6a3 = 0, s00 (1) = 0 : 2a2 + 6a3 + 6b1 = 0. Damit gewinnen wir das folgende lineare Gleichungssystem, das wegen der zweiten Gleichung, a0 = 0, nur aus vier Gleichungen besteht (wir schreiben es gleich in der kompakten Form zur Anwendung des Gauß’schen Algorithmus):     −1 1 −1 0 1 −1 1 −1 0 1  1 1 1 1 1  0 2 0 1 2  0 2 −6 0 0  →  0 0 −6 −1 −2  0 2 6 6 0 0 0 6 5 −2   −1 1 −1 0 1  0 2 0 1 2 → . 0 0 −6 −1 −2  0 0 0 4 −4 Daraus gewinnen wir die Lösung: 1 3 , a2 = , a1 = 0. 2 2 Setzen wir diese Zahlen in obige Darstellungsformel ein, so folgt: b1 = −1, a3 =

3 2 1 3 x + x − (x − 0)3+ 2 3 2 21 3 für [−1, 0] 2x + 2x = . 3 2 1 3 x − x für [0, 1] 2 2

s(x) =

224

5 Interpolation

Man vergleiche das Ergebnis mit der Lösung, die wir in Aufgabe 5.12 (a) mit Hilfe des Algorithmus aus Aufgabe 5.11 gewinnen werden. Aufgabe 5.10 Berechnen Sie den natürlichen kubischen Spline s, der f (x) = x · cos

x 2

gemäß folgender Wertetabelle interpoliert. Vergleichen sie den Wert von s(1.5) mit dem exakten Wert f (1.5) = 1.09755. i 0 1 2 xi 1 2 3 f (xi ) 0.88 1.08 0.21 Lösung: Zur Lösung wollen wir diesmal der Abwechslung wegen die zweite Formel ii) aus Aufgabe 5.8 verwenden. Nach dieser Formel bilden wir den folgenden Ansatz mit n = 2 : s(x) = c0 + c1 x + d0 (x − 1)3+ + d1 (x − 2)3+ + d2 (x − 3)3+ . Benutzen wir die Interpolationseigenschaften, so folgt: x0 = 1, y0 = 0.88 ⇒ c0 +c1 = 0.88, x1 = 2, y1 = 1.08 ⇒ c0 +2c1 +d0 = 1.08, x2 = 3, y2 = 0.21 ⇒ c0 +3c1 +8d0 +d1 = 0.21. Die Forderung, dass es sich um eine natürliche Spline–Funktion handeln soll, wird hier in einer anderen Weise ausgenutzt. ‚Natürlich‘ besagt ja auch, dass die Spline–Funktion links von x0 und rechts von xn eine Gerade ist. In der zweiten Formel ist bereits berücksichtigt, dass links von x0 alle Plusfunktionen verschwinden und deshalb nur der lineare Anteil c0 + c1 x übrigbleibt. Rechts von xn aber können wir ja alle +–Zeichen vergessen. Mit der gewöhnlichen binomischen Formel kann man die dritten Potenzen auflösen und alles nach Potenzen von x sortieren. Dann müssen die quadratischen und kubischen Anteile verschwinden. So erhalten wir die folgenden beiden Gleichungen: d0 + d1 + d2 = 0, d0 + 2d1 + 3d2 = 0. Insgesamt können wir und auflösen:  1 1  1 0 0

die ganze Aufgabe jetzt als lineares Gleichungssystem schreiben    1 0 0 0 | 0.88 1 1 0 0 0 | 0.88 2 1 0 0 | 1.08  0.2   −1 1 1 0 0 |    3 8 1 0 | 0.21  →  −1 2 8 1 0 | −0.67    0 1 1 1 | 0 0 0 1 1 1 | 0 0 1 2 3 | 0 0 0 1 2 3 | 0

5.3 Spline–Funktionen

225

 1 1 0 0 0 | 0.88 0.2   −1 1 1 0 0 |   →  −1 −2 6 1 0 | −1.07   0 0 1 1 1 | 0 0 0 1 2 3 | 0   1 1 0 0 0 | 0.88 1 0 0 | 0.2   −1 1   6 1 0 | −1.07  →  −1 −2  0 0 −1/6 5/6 1 | 0.1783  0 0 −1/6 11/6 3 | 0.18   1 1 0 0 0 | 0.88 1 0 0 | 0.2   −1 1   6 1 0 | −1.07  . →  −1 −2  0 0 −1/6 5/6 1 | 0.18  0 0 −1/6 −11/5 4/5 | −0.21 

Daraus liest man leicht die Lösung des Gleichungssystems ab: d2 = −0.267499, d1 = 0.5369988, d0 = −0.2678331, c1 = 0.4678331, c0 = 0.4121669. Damit lautet die gesuchte Spline–Funktion: s(x) = 0.41 + 0.47x − 0.27(x − 1)3+ + 0.54(x − 2)3+ − 0.27(x − 3)3+ . Betrachten wir die Stelle x = 1.5, so müssen wir das Intervall zwischen 1 und 2 zu Hilfe nehmen. In unserer obigen Spline–Funktion liefert in diesem Intervall aber nur der erste Term der drei Abschneide–Funktionen einen Beitrag. Bei den anderen beiden greift das +–Zeichen. Sie verschwinden, weil die Klammer negativ würde. So bleibt als Wert bei x = 1.5: s(1.5) = 0.41 + 0.47 · 1.5 − 0.27(1.5 − 1)3 = 1.08, was bei so wenigen Stützstellen doch schon einen erstaunlich guten Näherungswert darstellt. Aufgabe 5.11 Stellen Sie zur Berechnung einer kubischen Spline–Funktion einen Algorithmus auf. Lösung: Nach Aufgabe 5.8 ist der Raum S 3 der kubischen Spline–Funktionen s zu den Interpolationsstellen (x0 , y0 ), . . . , (xn , yn ) so definiert:   s : [x0 , xn ] → IR mit     3 i) s|[xi ,xi +1] ∈ P i = 0, 1, . . . , n − 1 3 S2 (x0 , x1 , . . . , xn ) := . i = 0, 1, . . . , n    ii) s(xi ) 2= yi  iii)s ∈ C [x0 , xn ]

226

5 Interpolation

In dieser Aufgabe wollen wir einen Algorithmus aufstellen, der sich ausschließlich mit der Darstellung der Spline–Funktion als stückweise Polynome höchstens dritten Grades befaßt. Wir können deshalb die Beschreibung stückweise vornehmen und orientieren uns an der in Aufgabe 5.8 Seite 222 vorgestellten Formel. Zur Beschreibung des Algorithmus, der uns die Berechnung der Koeffizienten a0 , . . . , an−1 , b0 , . . . , bn−1 , c0 , . . . , cn−1 , d0 , . . . , dn−1 liefern soll, ist es bequem, zusätzlich den Koeffizienten an einzuführen durch die Festlegung: an := yn . Dann ergibt sich der folgende Algorithmus. Algorithmus zur Berechnung kubischer Splines 1 ai = yi ,

i = 0, 1, . . . , n

2 Berechne c0 , . . . , cn aus dem folgenden linearen Gleichungssystem: hi−1 ci−1 + 2ci (hi−1 + hi ) + hi ci+1 =

hi := xi+1 − xi ,

3 3 (ai+1 − ai ) − (ai − ai−1 ) hi hi−1 i = 1, . . . , n − 1 i = 0, . . . , n − 1

Dies ist ein Tridiagonalsystem mit n − 1 Gleichungen für die n + 1 Unbekannten c0 , . . . , cn , wobei aus Gründen der ï¿ 12 bersichtlichkeit cn als Unbekannte hinzugefügt wurde. Wir können daher zwei zusätzliche Bedingungen vorschreiben. Es haben sich die folgenden drei Möglichkeiten als nützlich erwiesen (a) Natürliche Splines: s00 (x0 ) = s00 (xn ) = 0, dies ist äquivalent zu c0 = cn = 0, (gleichbedeutend: s ist in (−∞, x0 ) und in (xn , ∞) Polynom vom Grad 1). (b) Periodische Splines: s0 (x0 ) = s0 (xn ), s00 (x0 ) = s00 (xn ), damit kein Sprung auftritt, wird zusätzlich gefordert: s(x0 ) = s(xn ). (c) Zusätzlich 1. Ableitung an den Randpunkten vorschreiben: s0 (x0 ) = y00 , s0 (xn ) = yn0 . 3 bi =

1 hi (ai+1

4 di =

1 3hi (ci+1

− ai ) − − ci ),

hi 3 (ci+1

+ 2ci ),

i = 0, . . . , n − 1

i = 0, . . . , n − 1

5.3 Spline–Funktionen

227

Aufgabe 5.12 Berechnen Sie mit dem Algorithmus aus Aufgabe 5.11 jeweils die natürliche kubische Splinefunktion s, die (a) f (x) = x4 in den Punkten x0 = −1, x1 = 0, x2 = 1 interpoliert, (b) der folgenden Wertetabelle genügt: x −2 −1 0 1 2 f (x) 0.2 0.5 1 0.5 0.2 Lösung: Zu (a) Gemäß Aufgabenstellung können wir die folgende Wertetabelle aufstellen: xi −1 0 1 f (xi ) 1 0 1 Gesucht ist demnach eine Spline–Funktion s(x) : [−1, 1] → IR

mit s(−1) = 1, s(0) = 0, s(1) = 1,

die sich in den beiden Teilintervallen als Polynom dritten Grades darstellt, aber insgesamt aus C 2 ist. Wir machen den Ansatz:  a0 +b0 (x + 1) +c0 (x + 1)2 +d0 (x + 1)3 , x ∈ [−1, 0] s(x) = a1 +b1 x +c1 x2 +d1 x3 , x ∈ [0, 1] Damit steigen wir in den Algorithmus ein: 1 Man erhält sofort a0 = 1, a1 = 0, a2 = 1. 2 Zur Aufstellung des Gleichungssystems beachten wir zunächst: h0 = h1 = 1. Dann wollen wir einen natürlichen Spline berechnen. Das führt uns zu den beiden weiteren Vorgaben: c0 = c2 = 0. Damit bleibt nur noch eine Gleichung für das Gleichungssystem übrig. Sie lautet: 3 3 (1 − 0) − (0 − 1) = 6, 1 1 c1 = 1.5

c0 + 2c1 (1 + 1) + c2 =

Die restlichen Koeffizienten sind nun direkt aus den Formeln unseres Algorithmus zu

228

5 Interpolation

berechnen: 3

4

1 b0 = (0 − 1) − (1.5 + 2 · 0) = −1 − 0.5 = −1.5, 3 1 b1 = (1 − 0) − (0 + 2 · 1.5) = 0, 3 1 d0 = (1.5 − 0) = 0.5, 3 1 d1 = (0 − 1.5) = −0.5. 3

Damit ergibt sich das Resultat:  1 −1.5(x + 1) +0(x + 1)2 +0.5(x + 1)3 , x ∈ [−1, 0] s(x) = 0 +0x +1.5x2 −0.5x3 , x ∈ [0, 1] oder ausgerechnet:  s(x) =

3 2 2x 3 2 2x

+ 12 x3 , x ∈ [−1, 0] − 12 x3 , x ∈ [0, 1]

Wir wollen hier eine Kontrollrechnung durchführen. Es gilt: 3 1 (−1)2 + (−1)3 = 1, 2 2  3 2 1 3 0 + 0 = 0 2 2 s(0) = , 3 2 1 3 0 − 0 = 0 2 2 3 1 s(1) = 12 − 13 = 1. 2 2

s(−1) =

Damit haben wir gezeigt, dass die Interpolationsbedingungen erfüllt sind und der stetige Übergang bei 0 gewährleistet ist, was wir mit der geschweiften Klammer angedeutet haben – obere Zeile bedeutet linkes Intervall, untere Zeile rechtes Intervall. Prüfen wir noch, ob auch die Ableitungen bis zur zweiten Ordnung bei 0 stetig bleiben. Die geschweiften Klammern deuten wieder an, dass wir uns bei der oberen Zeile im linken Teilintervall, bei der unteren Zeile im rechten Teilintervall befinden. Die Einsetzung x = 0 muß in beiden Zeilen zum selben Ergebnis führen:  −1.5 + 3 · 0.5(x + 1)2 0 s (x) = , 2 · 1.5x − 3 · 0.5x2  6 · 0.5(x + 1) s00 (x) = . 2 · 1.5 − 6 · 0.5x Setzen wir 0 ein, so ergibt sich jeweils in den Zeilen derselbe Wert. Schließlich prüft man noch sehr schnell, dass die zweite Ableitung von s bei −1 und bei 1 verschwindet. Zu (b) Diesmal haben wir es mit vier Teilintervallen zu tun. Die Stützstellen liegen äquidistant, also ist h = 1.

5.3 Spline–Funktionen

229

Für die gesuchte Spline–Funktion machen wir den Ansatz: s(x) = ai + bi (x − xi ) + ci (x − xi )2 + di (x − xi )3 für x ∈ [xi , xi+1 ], i = 0, 1, 2, 3. Führen wir damit den Algorithmus durch, so folgt: 1 a0 = 0.2, a1 = 0.5, a2 = 1, a3 = 0.5, a4 = 0.2. 2 Wiederum wird eine natürliche Spline–Funktion gesucht. Wir setzen also c0 = c4 = 0. Dann ergibt sich das Gleichungssystem: c0 +2c1 · 2 +c2 = 3(1 − 0.5) − 3(0.5 − 0.2) = 0.6 c1 +4c2 +c3 = 3(0.5 − 1) − 3(1 − 0.5) = −3 c2 +4c3 +c4 = 3(0.2 − 0.5) − 3(0.5 − 1) = 0.6 Es handelt sich also in der Tat um drei lineare Gleichungen mit fünf Unbekannten, wovon wir zwei wegen „natürlich“ vorgegeben haben. Das Gleichungssystem schreibt sich dann als Tridiagonalsystem:   4 1 0 0.6  1 4 1 −3  0 1 4 0.6 Die Lösung ergibt sich zu: c0 = 0,

c1 = 0.3857,

c2 = −0.9429,

c3 = 0.3857.

Die weiteren Koeffizienten erhalten wir aus dem Algorithmus durch direkte Berechnung: 1 3 b0 = (0.5 − 0.2) − (0.3857) = 0.1714, 3 1 b1 = 1 − 0.5 − (−0.9429 + 2 · 0.3857) = 0.55714, 3 1 b2 = 0.5 − 1 − (0.3857 + 2 · (−0.9429)) = 0, 3 1 b3 = 0.2 − 0.5 − (2 · 0.3857) = −0.5571, 3 1 4 d0 = (0.3857) = 0.12857, 3 1 d1 = (0.9429 − 0.3857) = −0.4428, 3 1 d2 = (0.3857 − (−0.9429)) = 0.4428, 3 1 d3 = (−0.3857) = −0.12857. 3

230

5 Interpolation

So folgt das Ergebnis für die gesuchte Spline–Funktion:   0.2 +0.1714(x + 2) +0    0.5 +0.55714(x + 1) +0.3857(x + 1)2

+0.1285(x + 2)3 −0.4428(x + 1)3 s(x) = 2  1 +0 −0.9429x +0.4428x3    0.5 −0.5571(x − 1) +0.3857(x − 1)2 −0.12857(x − 1)3

Hierbei gilt die erste Zeile in [−2, −1], die zweite in [−1, 0], die dritte in [0, 1] und die vierte in [1, 2]. Aufgabe 5.13 Bestimmen Sie die natürliche kubische Splinefunktion s, die die Sinusfunktion gemäß unten stehender (Näherungs-) Wertetabelle interpoliert, und berechnen Sie den Wert von s bei x = 1: 0 π/6 2π/6 π/2 0 0.5 0.9 1 Lösung: Die Aufgabe wird genauso gelöst wie die Aufgabe 5.12. Wir beschränken uns daher auf eine knappe Wiedergabe der Rechnung: 1 ai = yi ,

i = 0, 1, 2, 3 ⇒ a0 = 0, a1 = 0.5, a2 = 0.9, a3 = 1.

π , 6 π 2π π 3 3 i = 1 : c0 + 2 · c1 + c2 = (0.9 − 0.5) − (0.5 − 0), 6 6 6 π/6 π/6 π 2π π 3 3 i = 2 : c1 + 2 · c2 + c3 = (1 − 0.9) − (0.9 − 0.5). 6 6 6 π/6 π/6 Zwei Gleichungen mit 4 Unbekannten c0 , c1 , c2 , c3 . Für einen natürlichen Spline wähle c0 = c3 = 0.

2 h1 = h2 = h3 =



Durch Multiplikation mit

2π π 18 1.8 c1 + c2 = (−0.1) = − 3 6 π π π 2π 18 5.4 c1 + c2 = (−0.3) = − 6 3 π π 6 ergeben sich die Gleichungen π 10.8 π2 129.6 −4c1 − 16c2 = π2 4c1 + c2 = −

5.3 Spline–Funktionen

231

Addition dieser Gleichungen führt auf −15c2 =

118.8 . π2

Als Lösungen erhält man dann c2 = −

3 b0 = b1 = b2 = 4 d0 = d1 = d2 =

118.8 7.92 c2 10.8 0.72 = − 2 und c1 = − − =− 2 . 2 2 15π π 4 4π π

  3 0.72 1 0.72 3.04 + = 3+ = π 18π π 18 π     6 π 7.92 2 · 0.72 1 7.92 1.44 2.92 (0.4) − − 2 − = 2.4 + + = π 18 π π2 π 18 18 π   6 π 7.92 1.48 (1 − 0.9) − −2 · 2 = π 18 π π   1·6 1 2.88 1 c1 = · 2 · − 2 = − 3 · 5.76 3π π π π   2 2 7.92 2.88 1 (c2 − c1 ) = − 2 + 2 = − 3 · 10.08 π π π π π 2 2 7.92 1 (−c2 ) = · 2 = 3 · 15.84 π π π π 6 π (0.5) − π 18





0.72 π2



=

Als Näherung für sin 1 berechnen wir s(1). Da 1 ∈

π 2π 6, 6



, folgt:

   2  3 pi pi pi s(1) = a1 + b1 1 − + c1 1 − + d1 1 − 6 6 6     2   3 3.16 pi 0.72 pi 10.08 pi = 0.5 + 1− + − 2 1− + − 3 1− π 6 π 6 π 6 = 0.92748 Mit dem Taschenrechner ermitteln wir: sin(1) = 0.84147 Das ist noch nicht bestens, aber wir haben ja auch nur drei Stützstellen verwendet.

232

5 Interpolation

Aufgabe 5.14 Interpretieren Sie die Extremaleigenschaft kubischer Spline–Funktionen s für jede Funktion g, die dieselben Interpolationsforderungen wie s erfüllt, geometrisch und mechanisch. Lösung: Die 1957 von Holladay entdeckte Extremaleigenschaft der Spline–Funktionen sagt aus: Extremaleigenschaft der Spline–Funktionen Z b Z b ks00 k2 := s00 (x)2 dx ≤ g 00 (x)2 dx =: kg 00 k2 a

a

Das bedeutet in Worten: Unter allen Funktionen g, die die gleichen Interpolationseigenschaften wie die kubische Spline–Funktion s besitzen, hat die Spline–Funktion die kleinste Norm. Zu (a) Geometrische Interpretation: Unter der Krümmung κ eines Funktionsgraphen y = g(x) versteht man die Größe: κ(x) :=

g 00 (x) . (1 + g 0 (x)2 )3/2

Falls nun |g 0 (x)|  1 ist für x ∈ [a, b], so folgt: kκ(x)k2 ≈

Z

b

g 00 (x)2 dx,

a

d.h. unter allen Funktionen, die gegebene Daten interpolieren, hat die Spline–Funktion die kleinste Krümmungsnorm. Zu (b) Mechanische Deutung: Betrachten wir einen homogenen, isotropen Stab. Dessen Biegelinie sei gegeben durch y = g(x). Dann erhält man aus der Mechanik: Biegemoment: Biegeenergie:

g 00 (x) , (1 + g 0 (x)2 )3/2 Z b E(g) := c2 · M (x)2 dx. M (x) := c1 ·

a

Man weiß, dass ein Stab, der durch Lager in gewissen Interpolationspunkten so festgehalten wird, dass dort nur Kräfte senkrecht zur Biegelinie aufgenommen werden können, eine solche Endlage einnimmt, dass die aufzuwendende Biegeenergie minimal ist. Falls nun |g 0 (x)|  1 ist für x ∈ [a, b], was eine kleine Biegung bedeutet, so wird diese Lage gerade durch die Spline–Funktion angenommen.

6

Numerische Quadratur

6.1

Interpolatorische Quadraturformeln

Aufgabe 6.1 Betrachten Sie eine Ellipse mit den Achsen a und b und der Parameterdarstellung x = a cos t, y = b sin t,

0 ≤ t ≤ 2π.

(a) Stellen Sie das vollständige elliptische Integral 2. Gattung für den Umfang der Ellipse auf. √ (b) Berechnen Sie für a = 1 und b = 1/ 2 das Integral näherungsweise mit der Rechteckregel, mit der Trapezregel und mit der Keplerschen Fassregel, und vergleichen Sie das Ergebnis mit dem Wert, den man in Tafelwerken findet.

Lösung:

Wir betrachten die übliche Parameterdarstellung: x = a cos t, y = b sin t,

0 ≤ t ≤ 2π,

dx = −a sin t dt, dy = b cos t dt.

............2............................. ..... ........ . . . ..... 1 . . . . . . . .. .. ......t ..... . . . . . . . . ... . .. . ... −2 −1 .. 1 2 .3.. −3 .... ... −1 ...... . . . . . . .......... .................................. −2

Abbildung 6.1: Ellipsenumfang

Selbstverständlich genügt es, eine Viertelellipse V E zu betrachten und das Ergebis der Umfangsberechnung mit 4 zu multiplizieren. Damit folgt dann, wenn wir zwischendurch eine Umparametrisierung nach folgendem Muster vornehmen: t = π/2 − ϕ,

dt = −dϕ,

also sin t = cos ϕ, cos t = sin ϕ.

234

6 Numerische Quadratur Z

π/2

Z

L = 4·

p (x0 (t))2 + (y 0 (t))2 dt

ds = 4 · VE π/2

Z = 4·

0

p

a2 sin2 t + b2 cos2 t dt

0

Z

0

q a2 cos2 ϕ + b2 sin2 ϕ dϕ

= −4 · π/2 π/2

Z = 4·

q

a2 cos2 ϕ + b2 sin2 ϕ dϕ

0

Z

π/2

q

a2 − a2 sin2 ϕ + b2 sin2 ϕ dϕ 0 Z π/2 r b2 = 4a · 1 − sin2 ϕ + 2 sin2 ϕ dϕ a 0 Z π/2 q = 4a · 1 − ε2 sin2 ϕ dϕ, = 4·

0

wobei mit ε die Exzentrizität der Ellipse bezeichnet wird, welche sich so berechnet: ε2 = 1 −

b2 . a2

Das letzte Integral ist ein sogenanntes vollständiges elliptisches Integral 2. Gattung, welches sich bisher einer exakten Integration entzieht. Wir können also nur numerisch vorgehen, um Näherungswerte zu erhalten. Zu (b) Quadraturformeln haben allgemein die Gestalt:

Quadraturformeln Zur näherungsweisen Berechnung eines Integrals Z

b

I=

f (x) dx a

werde das Intervall [a, b] durch n ∈ IN Stützstellen a ≤ x1 < x2 < · · · < xn ≤ b unterteilt. Mit den Gewichten A1 , . . . , An ∈ IR lautet dann die Näherungsformel Z

b

f (x) dx = a

n X

Ai f (xi ) + Rn (f )

i=1

Dabei bezeichnet Rn (f ) das Restglied dieser Quadraturformel.

6.1 Interpolatorische Quadraturformeln

235

Viele Mathematiker und auch Anwender der Mathematik haben sich durch Entwicklung immer besserer Quadraturformeln hervorgetan. Einige der bekanntesten Formeln listen wir auf.

Einfache Quadraturformeln Name Quadraturformel  Rechteckregel: IR = (b − a)f a+b 2 Trapezregel: Keplerregel:

Restglied 3 00 + 13 b−a f (ξ) 2 3 00 (b) IT r = (b − a) f (a)+f − 23 b−a f (ξ) 2 2   1 b−a 5 (4) IK = b−a f (a) + 4f ( a+b f (ξ) 6 2 ) + f (b) − 90 2

ξ ist dabei jedesmal ein (von der jeweiligen Quadraturformel abhängiger) Zwischenwert im Intervall [a, b].

Um die Güte einer Quadraturformel abzuschätzen, hat sich ein weiteres Merkmal eingebürgert. Man fragt danach, welche Polynome noch exakt integriert werden.

Ordnung einer Quadraturformel Eine Quadraturformel heißt von der Ordnung k, wenn ihr Restglied für alle Polynome vom Grad kleiner oder gleich k − 1 verschwindet. Die oben aufgeführten Regeln besitzen die folgenden Ordnungen: Quadraturformel Rechteckregel:

Ordnung 2

Trapezregel:

2

Keplersche Fassregel:

4

√ Wir setzen unsere Berechnung fort mit den speziellen Werten: a = 1 und b = 1/ 2. Um mit den oben genannten Regeln zu arbeiten, benötigen wir Funktionswerte des Integranden. Wir stellen sie in folgender Tabelle zusammen:

ϕ 0 π/4 π/2 p p √ 1 − ε2 sin2 ϕ 1 1 − ε2 /2 1 − ε2

236

6 Numerische Quadratur

Die Anwendung der drei Regeln ist nun kinderleicht. Wir erhalten: r √ 4aπ ε2 LR = 1− = 3π = 5.44139809, 2 2  p 4aπ  LT r = 1 + 1 − ε2 = 5.36303412, 4 ! r 4aπ ε2 p LK = 1+4 1− + 1 − ε2 = 5.41527676. 12 2 Im Taschenbuch der Mathematik von Bronstein–Semendjajev findet man eine Tabelle der elliptischen Integrale. Durch Interpolation entnimmt man dieser den Wert E(45; π/2) = 1.3493 also L = 4aE(45; π/2) = 5.3972. als ziemlich exakten Wert für den Umfang der Ellipse. Aufgabe 6.2 Betrachten Sie die folgende Quadraturformel b

Z

f (x) dx = a

n X

Aν · f (xν ) + Rn (f )

ν=1

mit den n verschiedenen Stützstellen x1 , . . . , xn , den Gewichten A1 , . . . , An und dem Restglied Rn (f ). (a) Was bedeutet es, wenn diese Quadraturformel die Ordnung 2n, aber nicht die Ordnung 2n + 1 besitzt? (b) Betrachten Sie das Polynom vom Grad 2n p(x) = (x − x1 )2 · . . . · (x − xn )2 , und zeigen Sie damit, dass obige Quadraturformel nicht die Ordnung 2n+1 besitzt. Lösung: Zu (a) Die oben vorgestellte Quadraturformel hat, wie wir es auf Seite 235 definiert haben, die Ordnung 2n, wenn ihr Restglied für alle Polynome vom Grad ≤ 2n − 1 verschwindet. Damit hat sie nicht mehr die Ordnung 2n + 1, wenn es mindestens ein Polynom vom Grad 2n gibt, für das das Restglied nicht verschwindet. Zu (b) Ein solches Polynom ist uns, damit wir nicht lange fahnden müssen, in der Aufgabe vorgegeben worden. Wir wenden also jetzt die Quadraturformel auf dieses Polynom p(x), das ja lich den Grad 2n hat, an. Z

b

p(x) dx = a

n X ν=1

Aν · p(xν ) + Rn (p).

6.1 Interpolatorische Quadraturformeln

237

Aus der Definition von p(x) erkennt man sofort: p(x1 ) = · · · = p(xn ) = 0. Damit verschwindet in der Quadraturformel die gesamte Summe: n X

Aν · p(xν ) = 0.

ν=1

Nun ist das Polynom p(x) als Produkt von quadratischen Termen überall bis auf die endlich vielen Stützstellen, die ja zugleich die Nullstellen sind, echt positiv. Damit ist das Integral über dieses Polynom ebenfalls echt positiv, endlich viele Nullstellen ändern daran nichts. Die linke Seite ist also eine positive Zahl. Damit Gleichheit herrscht, muss auch die rechte Seite eine positive Zahl sein, das Restglied kann also nicht verschwinden, womit wir gezeigt haben, dass die Quadraturformel nicht die Ordnung 2n + 1 hat. Aufgabe 6.3 Berechnen Sie mit der 3/8–Regel das folgende Integral näherungsweise und vergleichen Sie das Ergebnis mit dem exakten Wert. Z 1 √ 8 x dx 0

Warum wird hier eine Fehlerabschätzung sinnlos? Lösung: Die 3/8–Regel, die ja von Newton als die schönste, die pulcherrima, bezeichnet wurde, lautet: Z 1 1 (3h5 (4) b−a f x dx = (y0 + 3y1 + 3y2 + y3 ) − f (ξ), mit h := , 8 80 3 0 wobei die yi die Werte des Integranden an den vier Stützstellen x0 = 0, x1 = 1/3, x2 = 2/3, x3 = 1 bedeuten, also die Werte: f (0) = 0, f (1/3) = 0.8716855429, f (2/3) = 0.950579825, f (1) = 1. Diese Formel hat ebenso wie die Keplersche Fassregel die Ordnung 4, aber durch eine weitere Funktionsauswertung doch größeren Aufwand. Sie ist also wohl nicht die beste. Mit ihr ergibt sich der Näherungswert: I = 1/8 · 6.466796103 = 0.8083455129. Dieses Integral lässt sich natürlich sehr leicht direkt berechnen:

238

6 Numerische Quadratur Z

1

0

√ 8

Z x dx = 0

1

x1/8 =

1 1 9/8 8 x = = 0.88888. 9/8 9 0

Eine Fehlerabschätzung lässt sich hier mit den gewohnten Mitteln nicht durchführen, da zwar auf dem Intervall [0,1] sämtliche Ableitungen des Integranden existieren, aber bei 0 unbeschränkt sind. Das Maximum der vierten Ableitung existiert also auf dem Intervall [0,1] nicht. Dieses müsste aber im Restglied berücksichtigt werden. Aufgabe 6.4 Gegeben sei das folgende Integral Z 2 dx . 1 1+x (a) Berechnen Sie die Zahl N der Teilintervalle, die nötig sind, damit für die Berechnung nach der Trapezregel der Fehler kleiner als 2.5 · 10−3 wird. (b) Berechnen Sie sodann mit N = 3 obiges Integral nach der Trapezregel. Lösung: Zu (a) Hier ist nun die Mehrfachanwendung der Trapezregel gefragt. Das Restglied der einfachen Trapezregel lautet:  3 2 b−a R(f ) = − f 00 (ξ), ξ ∈ [1, 2]. 3 2 Zerlegt man das Gesamtintervall [a, b] in N Teilintervalle und wendet auf jedes Teilintervall diese Regel an, so folgt durch einfaches Aufsummieren:  3 3 1 b−a ˜ = − 1 · (b − a) f 00 (ξ). ˜ R(f )Σ = − · N f 00 (ξ) 12 N 12 N2 Aus der Bedingung, dass der Fehler kleiner als 2.5 · 10−3 sein möge, erhalten wir: 1 (b − a)3 00 ˜ ≤ 2.5 · 10−3 . |R(f )Σ | = − · f ( ξ) 12 N2 Das Maximum von f 00 auf dem Intervall [1,2] berechnet sich wegen Monotonie zu: ( 00 )   1 2 1 max = max = . 1+x 4 x∈[1,2] x∈[1,2] (1 + x)3 Daraus folgt: |R(f )Σ | ≤

1 (b − a)3 ˜ = 1 1 ≤ 2.5 · 10−3 = 1 . · max |f 00 (ξ)| 12 N2 48 N 2 400

6.2 Gaußsche Quadraturformeln

239

Daraus berechnet man die Anzahl der benötigten Teilintervalle durch Auflösen nach N 2 : N2 ≥

400 = 8.3 =⇒ N ≥ 3. 48

Wir müssen also das Gesamtintervall in mindestens drei Teilintervalle unterteilen, um einen Fehler garantiert kleiner als 2.5 · 10−3 zu erhalten. Zu (b) Für N = 3 sind die folgenden Stützstellen zu berücksichtigen: h=

1 4 5 , x0 = 1, x1 = , x2 = , x3 = 2. 3 3 3

Der Näherungswert für das Integral ergibt sich dann so:  If =

6.2

1 1 y0 + y1 + y2 + y3 2 2

 ·h=

205 = 0.4067. 504

Gaußsche Quadraturformeln

Aufgabe 6.5 Betrachten Sie das Integral 1 I= 2

Z

1

 ln

−1

2 1+t

a a ∈ IR.

dt,

(a) Zeigen Sie: I = Γ(1 + a)

(Γ : Gamma–Funktion).

(b) Zeigen Sie die Orthogonalität der Legendre–Polynome L2 (t) und L3 (t). (c) Bestimmen Sie zur näherungsweisen Berechnung von Γ(1.5) die Stützstellen von G3 mit dem QR–Verfahren und die zugehörigen Gewichte. (d) Berechnen Sie mit Hilfe der Formel G3 näherungsweise obiges Integral für a = 0.5, und vergleichen Sie das Ergebnis mit dem exakten Wert Γ(1.5). Lösung: Zu (a) Zur Durchführung der exakten Rechnung müssen wir ein wenig tricksen. Zunächst führen wir das Integral auf das Intervall [0,1] zurück durch die Setzung: x = 1/2 + t/2, t = 2x − 1, dt = 2 dx. I=

1 2

Z 0

1

 ln

2 1 + 2x − 1

a

Z · 2 dx = 0

1

 a 1 ln dx. x

240

6 Numerische Quadratur

Setzen wir weiter y := − ln x = ln(1/x), dy = −dx/x, also x = e−y , so erhalten wir Z

0

y a e−y dy =

I=−



Z



y a e−y dy = Γ(1 + a),

0

wenn wir die Definition der Gamma–Funktion benutzen. Zu (b) Stellen wir erst mal etwas Wissen über die Legendre–Polynome bereit. Dazu betrachten wir grundsätzlich das Intervall [−1, 1]. Es gibt verschiedene Möglichkeiten, die Legendre–Polynome zu definieren. Wir wählen die folgende direkte Methode:

Legendre–Polynome   1 dn (t2 − 1)n Ln (t) = n , n = 0, 1, 2, . . . 2 · n! dtn Normierte Legendre–Polynome r   1 2n + 1 dn (t2 − 1)n ˜ Ln (t) = n , n = 0, 1, 2, . . . 2 · n! 2 dtn

Diese Polynome bilden auf dem Intervall [−1, 1] ein sogenanntes Orthogonalsystem:

Orthogonalität der Legendre–Polynome  Z 1 0 für m 6= n Ln (t) · Lm (t) dt = 2 2n+1 für m = n −1

˜ ergibt sich hier in der zweiten Zeile der Wert 1. Daher Für die normierten Polynome L der Name! Prüfen wir dies an einem Beispiel nach. Für n = 0, 1, 2, 3 folgt: L0 (t) = 1, L1 (t) = t, L2 (t) =

  1 1 3t2 − 1 , L3 (t) = 5t3 − 3t , 2 2

bzw. wenn wir die normierten Polynome betrachten wollen: ˜ 0 (t) = √1 , L ˜ 1 (t) = L 2

r

3 ˜ 2 (t) = 1 t, L 2 2

r

 5 ˜ 3 (t) = 1 3t2 − 1 , L 2 2

r

 7 5t3 − 3t 2

6.2 Gaußsche Quadraturformeln

241

Damit rechnen wir die Orthogonalität nach:

Z

1

Z

1

L2 (t) · L3 (t) dt = −1

−1 Z 1

=

(3t2 − 1)(5t3 − 3t) dt (15t5 − 9t3 − 5t3 + 3t) dt

−1



15 6 14 4 3 2 = t − t + t 6 4 2 = 0,

1 −1

was man am Integranden bereits sieht. Es sind nur ungerade Polynome auf dem symmetrischen Intervall [−1, 1] zu integrieren. Der Vollständigkeit wegen fügen wir noch eine zweite Möglichkeit an, die Legendre–Polynome mit Hilfe einer Rekursionsformel zu beschreiben.

Rekursionsformel der Legendre–Polynome L0 (t) = 1, L1 (t) = t (n + 1)Ln+1 (t) = (2n + 1) · t · Ln (t) − nLn−1 (t),

n = 1, 2, 3, . . .

Zu (c) Die Gaußschen Quadraturformeln, deren Anwendung ja das erklärte Ziel dieser ganzen Aufgabe ist, haben allgemein die folgende Gestalt:

Gaußsche Quadraturformeln Z

1

Gn :

f (t) dt = −1

n X

Ai f (ti ) + Rn (f )

n = 1, 2, . . .

i=1

Die Stützstellen t1 , . . . , tn sind dabei die Nullstellen der Legendre–Polynome. Die müssen wir also jetzt berechnen. Für die Gewichte A1 , . . . , An geben wir anschließend eine eigene Formel an. Zunächst könnte man daran denken, die Stützstellen wirklich als Nullstellen von Polynomen mit Hilfe des Bairstow– oder des Newton–Verfahrens zu berechnen. In neuerer Zeit hat sich eine andere interessante Möglichkeit aufgetan.

242

6 Numerische Quadratur

Stützstellen der Gaußschen Quadraturformeln Die Stützstellen der Gaußschen Quadraturformel Gn sind die Eigenwerte der folgenden symmetrischen Tridiagonalmatrix   0 β1 0 · · · · · · 0    β1 . . . β2 0 · · · 0     ..   0 ... ... ... ...  .  Gn =   . .  . . . ..  .. . . . . . . 0       0 · · · . . . . . . . . . βn−1  0 · · · · · · 0 βn−1 0 mit βk = √

k , 4k 2 − 1

k = 1, . . . , n − 1

Zur Berechnung sämtlicher Eigenwerte von Gn haben wir mit dem QR–Verfahren ein sehr kräftiges Hilfsmittel zur Hand. Die Matrix G3 lautet:   0 √13 0   G3 =  √13 0 √215  . 2 0 √15 0 Mit der Shiftstrategie 2 des QR–Verfahrens erhalten wir nach dem ersten Schritt die folgende zu G3 ähnliche Matrix:   −0.57377 −0.39021 0.00000 (1) G3 =  −0.39021 0.12716 0.41870  . 0.00000 0.41870 0.44662 Nach 20 QR–Schritten erreicht man so eine Diagonalmatrix, deren Hauptdiagonalelemente die gesuchten Eigenwerte der Matrix G3 sind: λ1 = 0.774598,

λ2 = 0,

λ3 = −0.774598.

Dies sind dann also die Nullstellen des Legendre–Polynoms L3 (t) und damit zugleich die Stützstellen von G3 . Gewichte der Gaußschen Quadraturformel Gn Sind t1 , . . . , tn die Stützstellen der Gaußschen Quadraturformel Gn , so berechnen sich die zugehörige Gewichte A1 , . . . , An nach der Formel: Ak =

2 , L20 (tk ) + 3L21 (tk ) + 5L22 (tk ) + · · · + (2n − 1)L2n−1 (tk )

k = 1, 2, . . . , n

6.2 Gaußsche Quadraturformeln

243

Für n = 3 bekommen wir die folgenden Gewichte: A1 =

2 5 = , 1 + 3 · 3/5 + 5 · 4/25 9

A2 =

8 , 9

A3 =

5 . 9

Zum Schluss wollen wir noch etwas zur Genauigkeit der Gaußschen Formeln sagen. Ordnung und Restglied Gaußscher Quadraturformeln Die Gaußsche Quadraturformel Gn (vgl. S. 241) ist von der Ordnung 2n. Ihr Restglied besitzt für f ∈ C 2n ([−1, 1]) die Darstellung: f (2n) (ξ) Rn (f ) = (2n)!

Z

1

(t − t1 )2 · . . . · (t − tn )2 dt mit

ξ ∈ [−1, 1]

−1

Unsere Formel G3 hat demnach die Gestalt r ! Z 1 1 3 f (t) dt = 5f − + 8f (0) + 5f 9 5 −1

r !! 3 1 + f (6) (ξ). 5 15750

Und sie hat die Ordnung 6, integriert also Polynome bis zum Grad 5 exakt. Hier sieht man den großen Vorteil der Gaußschen Quadraturformeln gegenüber den interpolatorischen Formeln. Zu (d) Die näherungsweise Berechnung des Integrals gestaltet sich nach diesen Vorbereitungen recht einfach. Zur Anwendung der Formel G3 berechnen wir die Funktionswerte des Integranden an den Stützstellen. s r ! 3 1 2 p f − = ln = 0.73875, 5 2 1 − 3/5 1√ f (0) = ln 2 = 0.41628, 2 s r ! 3 1 2 p f = ln = 0.17889. 5 2 1 + 3/5 Setzen wir das alles in obige Formel ein, so beschert uns die elementare Arithmetik das Ergebnis I = 0.87649. Schwierigere Rechnungen sind tatsächlich zur Anwendung der Gaußschen Formeln nicht nötig; denn die Stützstellen und Gewichte muss man nicht jedesmal neu berechnen. Sie sind in Formelsammlungen aufgelistet und auch in vielen Computerprogrammen bereits implementiert.

244

6 Numerische Quadratur

In Tafelwerken findet man den Wert Γ(1.5) = 0.88623. Das ist, verglichen mit dem Ergebnis I = 0.87649 unserer Berechnung, noch keine sehr gute Näherung, aber wir haben ja auch nur die einfache Formel G3 mit drei Stützstellen verwendet. Wenn wir Besseres haben wollen, so stehen uns jetzt viele weitere Quadraturformeln zur Verfügung.

Literaturverzeichnis 1. Aumann, G.: Höhere Mathematik III BI, Mannheim 1971 2. Brauch, W.; Dreyer, H.J.; Haake, W.: Mathematik für Ingenieure Teubner, Stuttgart 1977 3. Burg, K.; Haf, H.; Wille, F.: Höhere Mathematik für Ingenieure, I – IV Teubner, Stuttgart 1985/1987 4. Deuflhard, P.; Hohmann, A.: Numerische Mathematik I Walter de Gruyter, Berlin u.a. 1991 5. Dirschmidt, H.J.: Mathematische Grundlagen der Elektrotechnik Vieweg, Braunschweig 1987 6. Engeln-Müllges, G.; Reutter, F.: Num. Mathematik für Ingenieure BI, Mannheim 1978 7. Feldmann, D.: Repetitorium der Ingenieurmathematik Binomi Verlag, Springe 1988 8. Finck von Finckenstein, K.: Einführung in die Numerische Mathematik I, II Hanser–Verlag, München 1977 9. Habetha, K.: Höhere Mathematik für Ingenieure und Physiker, I – III Klett, Stuttgart 1979 10. Hämmerlin, G.; Hoffmann, K.–H.: Numerische Mathematik Springer, Berlin u.a. 1989 11. Herrmann, N.: Höhere Mathematik für Ingenieure, Physiker und Mathematiker, Oldenbourg Verlag, München, 2. Aufl., 2007 12. Herrmann, N.: Mathematik ist überall, 4. Aufl. Oldenbourg Verlag, München, 2013 13. Herrmann, N.: Können Hunde rechnen?, Oldenbourg Verlag, München, 2007 14. Herrmann, N.: Mathematik ist wirklich überall, Oldenbourg Verlag, München, 2009

246

Literaturverzeichnis

15. Herrmann, N.: Mathematik für Naturwissenschaftler, Spektrum Verlag, Heidelberg, 2012 16. Herrmann, N.: The Beauty of Everyday Mathematics, Springer Verlag, Heidelberg, 2012 17. Maess, G.: Vorlesungen über numerische Mathematik I, II Birkhäuser, Basel u.a. 1985/88 18. Scheid, F.: Numerical Analysis Schaum’s Outline Series, McGraw–Hill Book Comp., New York u.a. 1968 19. Schmeißer, G.; Schirmeier, H.: Praktische Mathematik W. de Gruyter–Verlag, Berlin u.a. 1976 20. Schwarz, H. R.: Numerische Mathematik Teubner, Stuttgart 1988 21. Schwetlick, H.; Kretschmar, H.: Numerische Verfahren für Naturwissenschaftler und Ingenieure Fachbuchverlag, Leipzig 1991 22. Spiegel, Ph. D.: Höhere Mathematik für Ingenieure und Naturwissenschaftler Schaum’s Outline Series, McGraw–Hill Book Comp., New York u.a. 23. Stummel, F.; Hainer, K.: Praktische Mathematik Teubner–Verlag, Stuttgart 1971 24. Törnig, W.; Spellucci, P.: Numerische Mathematik für Ingenieure und Phys. I, II Springer–Verlag, Berlin u.a. 1990 25. Törnig, W.; Gipser, M.; Kaspar, B.: Numerische Lösung von partiellen Differentialgleichungen der Technik Teubner, Stuttgart 1985 26. Werner, H.; Arndt, H.: Gewöhnliche Differentialgleichungen Springer–Verlag, Berlin u.a. 1986 27. Walter, W.: Gewöhnliche Differentialgleichungen Springer, Berlin u.a. 1976 28. Wörle, H.; Rumpf, H.-J.: Ingenieur–Mathematik in Beispielen I, II, III Oldenbourg Verlag, München 1986

Index C k –Feld, 2 Ähnlichkeit von Matrizen , 138 überbestimmtes Gleichungssystem, 90 Ableitung einer zusammengesetzten Funktion, 3 Abschneidefunktion, 222 Alternativsatz lin. Gleichungssyst., 72

Gesamtschrittverfahren, 112 Gradient, 4 Greenscher Satz Ebene, 45

cg–Verfahren, 128 Charakteristisches Polynom, 135, 136 Cholesky–Zerlegung, 92, 95

Hauptabschnittsdeterminante, 94 Hauptminor, 94 Hauptunterdeterminante, 94 Hermite–Interpolation, 218 Hessenbergform, 146 Hilbert–Matrix, 103 Hyman Verfahren von, 168

Deflation, 185, 186 Differential totales, 2 Differenzenquotienten, 212 Divergenz, 6 Divergenzsatz von Gauß, 48 Dreifachintegral, 43

Integraldarstellung des Potentials, 21 Interpolation Hermite, 218 inverse Iteration, 181 Invertierung Matrizen, 81 irreduzible Matrix, 110

Eigenwert Ordnung, 140 Vielfachheit, 140 Eigenwertaufgabe, 135 Einzelschrittverfahren, 112

Jacobi Verfahren von, 162 Jacobi–Rotation, 163

Feldbegriff, 1 Fluss eines Vektorfeldes, 37 Frobeniusmatrix, 148 Gamma–Funktion, 239 Gaussche Quadraturformeln Stützstellen, 241 Gauß Divergenzsatz, 48 Eliminationsverfahren, 76 Gerschgorin Kreise, 141 Gerschgorin–Kreise–Satz , 141

Keplersche Faßregel, 216 Kondition, 103 Hilbert–Matrizen, 104 konjugierte Gradienten, 128 Konjugierte Vektoren, 128 Konvergenz des SOR, 126 Krummung, 232 Kubische Spline–Funktion, 221 Algorithmus, 226 Kurvenhauptsatz, 13 L–R–Zerlegung, 76, 78 L–U–Zerlegung, 78 Landausymbole, 71

248 Legendre–Polynome, 240 normierte, 240 Orthogonalität, 240 Rekursionsformel, 241 Matrix irreduzible, 110 negativ definite, 94 orthogonale, 86 positiv definite, 92 reduzible, 110 stark diagonaldominante, 113 Matrixnorm, 101 Maxwellsche Gleichungen differentielle Form, 65 integrale Form, 67 naturliche Spline–Funktion, 222 negativ definit, 94 Newton–Interpolation, 211 Newton–Polynom, 211 Norm einer Matrix, 101 Norm eines Vektors, 100 Optimierungsaufgabe, 192 Ordnung eines Eigenwertes, 140 orthogonale Matrix, 86 Eigenschaften, 87 periodische Spline–Funktion, 226 Pivotisierung totale, 74 Pivotwahl, 74 positiv definit, 92 Potential, 1 Integraldarstellung, 21 Potentialfeld, 1 Prager und Oettli Satz von, 106 QR–Schritt, 156 QR–Verfahren, 157 QR–Zerlegung, 88, 158 Existenz, 89 Quadraturformeln, 234 Gewichte, 234 Ordnung, 235

Index Rayleigh–Quotient, 177 Extremaleigenschaft, 178 Rayleigh–Shift, 157 reduzible Matrix, 110 Rekursionsformel Legendre–Polynome, 241 Relaxationsparameter, 121 optimaler, 123 Residuenvektor, 128 Residuum, 106 Rotation, 8, 9 Satz von Prager und Oettli, 106 Satz von Stokes, 56 Schlupfvariable, 190 schwaches Zeilensummenkriterium, 114 Shift, 157, 182 Simplex–Tableau, 192 Simplex–Verfahren, 189 solenoidal, 25 SOR, 122 SOR–Verfahren, 121 Konvergenz, 126 Spaltenpivotisierung, 74 Spaltensummennorm, 102 Spektralnorm, 102 Spektralradius, 102, 116 Spline–Funktion Darstellungsformel, 222 Extremaleigenschaft, 232 kubische, 221, 222 naturliche, 222 stark diagonaldominante Matrix, 113 starkes Zeilensummenkriterium, 113 Stokes Integralsatz, 56 totale Pivotisierung, 74 Totales Differential, 2 Vektornorm, 100 Vektorpotential, 1 Ansatz, 25 Existenzsatz, 25 Vektorpotentialfeld, 1 Verfahren von Hyman, 168 Verfahren von Jacobi, 162

Index Verfahren von Wielandt, 181 Verfahren von Wilkinson, 147 Vielfachheit eines Eigenwertes, 140 Von–Mises–Verfahren, 171, 172 Wielandt Verfahren von, 181 Wilkinson Verfahren von, 147 Wilkinson–Shift, 157

249 Youngsches SOR–Verfahren, 121 Zeilensummenkriterium schwaches, 114 starkes, 113 Zeilensummennorm, 102 zerfallende Matrix, 110 Zielfunktion, 190