Analysis und lineare Algebra [version 12 Feb 2008 ed.]

  • Commentary
  • Downloaded from https://www.mat.univie.ac.at/~neum/FMathL/ALA.pdf
Citation preview

Analysis und lineare Algebra Vorlesungsskript Version vom 12.02.2008

Prof. Dr. Arnold Neumaier

Fakult¨at f¨ ur Mathematik, Universit¨at Wien ¨ Nordbergstr. 15, A-1090 Wien, Osterreich

email: [email protected]

c copyright by Arnold Neumaier

Inhaltsverzeichnis 1 Mathematische Grundbegriffe

1

2 Zahlen

15

3 Vektoren und der physikalische Raum

31

4 Folgen, Summen und Produkte

51

5 R¨ aume und Wege

59

6 Lineare Algebra

85

7 Felder

105

8 Matrizen und lineare Gleichungssysteme

119

9 Tensoren und Determinanten

139

10 Grenzwerte

163

11 Differentialoperatoren und Differentialformen

175

12 Rationale Funktionen

191

13 Topologie

209

14 Unendliche Reihen

237

15 Elementare Funktionen

253

16 Hilbertr¨ aume

271

17 Periodische Funktionen

273 i

ii

INHALTSVERZEICHNIS

18 Matrixzerlegungen und Spektraltheorie

293

19 Kurvenintegrale

333

20 Integration und Wahrscheinlichkeit

357

21 Maßtheorie

385

22 Volumenintegrale

401

23 Fl¨ achen und Fl¨ achenintegrale

419

Der Abbildungsgrad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434

INHALTSVERZEICHNIS

iii

Dies ist eine rigorose, einheitliche Darstellung des Basisstoffs der Mathematik, unter besonderer Ber¨ ucksichtigung der Belange von Physikstudenten. Analysis und lineare Algebra werden nicht getrennt behandelt, sondern so, daß ihre Wechselwirkung schon fr¨ uh deutlich und nutzbar wird. Außerdem wurde versucht, wichtige, in der Physik fr¨ uh ben¨otigte Konzepte (insbesondere Vektorprodukt und Gradient) so bald wie m¨oglich bereitzustellen, ohne daß die logische Konsequenz darunter leidet. Schulkenntnisse u ¨ber elementare Funktionen werden lediglich in Kapitel 3 und in einigen Beispielen und Rechenaufgaben vorausgesetzt; diese werden aber sp¨ater (Kapitel 15) ebenfalls rigoros fundiert. Zuordnung des Stoffs zu den traditionellen Vorlesungen: (runde Klammern = kann sowohl im analytischen als auch im algebraischen Zweig behandelt werden; (eckige Klammern = nur zum Teil ins Gebiet fallend) Lineare Algebra I Analysis I Lineare Algebra II Analysis II

: : : :

1, 3, (4), 6, 8, 9, [11), [12] 2, (4), 5, 7, 10, [11), [12] (16), 18, [20], mehr analytische Geometrie 14, 15, (16), 17, 19, [20], 21, 22, 23

Die großen Kapitel 5, 9, 13, 18, 20 werden vermutlich noch geteilt. In einigen Kapiteln habe ¨ ich noch einige gr¨oßere Anderungen vor: In Kapitel 6 soll der Grenzwertbegriff schon eingef¨ uhrt und zur Definition der Ableitung benutzt werden, dann soll die Steigungsinterpretation bewiesen und benutzt werden. An Umgebungen sollen nur Kugelumgebungen erscheinen, der Hausdorff-Raum wird auf das Topologie-Kapitel verschoben. Kapitel 16 ist noch nicht ausgearbeitet und besteht derzeit nur aus ein paar Stichpunkten. In Kapitel 20 will ich versuchen, auf unendliche Reihen zu verzichten; dann k¨onnte man vielleicht das Kapitel dem u ¨ber Topologie voranstellen. Die zahlreichen Abbildungen wurden dankenswerterweise von Dr. Waltraud Huyer und Mag. Erich Dolejsi erstellt. Diese vorl¨aufige Version soll sp¨ater zu einem Buch ausgearbeitet werden. Daher bin ich f¨ ur die Mitteilung von Druckfehlern und Ungenauigkeiten sowie f¨ ur konstruktive Kritik an der Darstellung, W¨ unsche f¨ ur zus¨atzliche Beispiele, Erkl¨arungen und Bilder dankbar. Beim Zusammenbinden der einzelnen Kapitel ergaben sich ein paar kleinere Kompatibilit¨atsprobleme mit den Latex-Labels. Daher ist das Outlay nicht perfekt, und die Numerierung noch nicht ganz in Ordnung, Verweise auf Gleichungen gehen z.T. ins Leere, und auch sonst passen verschiedene Kleinigkeiten (z.B. Beweisende) nicht ganz. Das Inhaltverzeichnis ist auch noch nicht perfekt: Umlaute sind nicht korrekt, auch werden einige der algebraischen Kapitel noch nicht ber¨ ucksichtigt, All das wird in der n¨achsten Version korrigiert.

iv

INHALTSVERZEICHNIS

Vorwort Wir leben in einer Welt von ungeheurer Komplexit¨at. Unser kollektives Wissen u ¨ber diese Welt hat sich im Lauf der Zeit immer mehr verfeinert. Ein Blick in eine beliebige wissen¨ schaftliche Bibliothek vermittelt einen guten Eindruck davon. Um die Ubersicht zu behalten, brauchen wir eine Sprache, in der man komplexe Zusammenh¨ange sehr knapp darstellen kann – die Mathematik. Im ersten Studienjahr m¨ ussen angehende Mathematiker und Naturwissenschaftler diese Sprache lernen. Es ist n¨ utzlich, die mathematischen Grundvorlesungen als einen IntensivSprachkurs anzusehen. Im Vergleich zur Schule wird Ihnen das Tempo vielleicht manchmal atemberaubend schnell vorkommen. Das ist unvermeidlich angesichts dessen, was Sie sich vorgenommen haben: Physik zu studieren, d. h. umfassende Kenntnisse u ¨ber die Wirkungsweise der Natur zu erwerben, um sie sp¨ater in einer sich schnell wandelnden Welt zu nutzen. Auch wenn Sie nicht Mathematik studieren, ist es außerordentlich wichtig, daß Sie sich mit der Mathematik, dieser Sprache u undlich vertraut machen, da ¨ber die Struktur der Welt, gr¨ sie die Grundlage ist, auf der alles Sp¨atere aufgebaut ist. Sie k¨onnen sich leicht davon u ¨berzeugen, indem Sie einmal in ein paar wahllos herausgegriffene wissenschaftliche Fachb¨ ucher aus Ihrer Bibliothek hineinschauen. Mit Mathematik vertraut sein – das heißt, ein klares intuitives Bild von den mathematischen Begriffen zu haben, sie von innen und außen zu kennen und ihre Zusammenh¨ange deutlich machen zu k¨onnen. Es heisst, die Sprache so zu beherrschen, dass alle Begriffe mit Sinn gef¨ ullt sind und anderen durch Beispiele oder Erkl¨arungen begreiflich gemacht werden k¨onnen. Es heißt auch, die Begriffe so auf die Wirklichkeit anwenden zu k¨onnen, daß die ¨ Welt an Konturen und Ubersichtlichkeit gewinnt. Und vertraut sein erlaubt auch, die innere Sch¨onheit der Mathematik zu sehen und zu genießen. Die Mathematik ist die Einheitssprache der modernen Welt – u ¨berall, in allen L¨andern, wird dieselbe mathematische Sprache gesprochen. In den Grundlagen, die in diesem Buch erarbeitet werden, ist diese Sprache v¨ollig einheitliche; in Spezialgebieten, die noch in Entwicklung sind, gibt es jeweils Dialekte, die durch verschiedene Traditionen gepr¨agt sind. Diese Einheitssprache und ihre technische Nutzung gibt den Menschen eine ungeheure Macht u ¨ber die Natur. Mehr ist machbar geworden, als je f¨ ur m¨oglich gehalten wurde, und die Grenzen sind kaum abzusehen. Andrerseits ist Vieles unserer Kontrolle entzogen, da wir die Folgen unsrer Technik oft nicht abschtzen k¨onnen und auch b¨ose Erfahrungen damit machen. Es wird Ihnen nicht schwerfallen, moderne Parallelen zu der folgenden alten Geschichte festzustellen: Es hatte aber alle Welt einerlei Zunge und Sprache. Als sie nun nach Osten zogen, fanden sie eine Ebene im Lande Schinar und wohnten daselbst. Und sie sprachen untereinander: Wohlauf, laßt uns Ziegel streichen und brennen! – und nahmen Ziegel als Stein und Erdharz als M¨ortel und sprachen: Wohlauf, laßt uns eine Stadt und einen Turm bauen, dessen Spitze bis an den Himmel reiche, damit wir uns einen Namen machen: denn wir werden sonst zerstreut

INHALTSVERZEICHNIS

v

in alle L¨ander. Da fuhr Gott, der Herr, hernieder, daß er s¨ahe die Stadt und den Turm, die die Menschenkinder bauten. Und der Herr sprach: Siehe, es ist einerlei Volk und einerlei Sprache unter ihnen allen, und dies ist erst der Anfang ihres Tuns; nun wird ihnen nichts mehr verwehrt werden k¨onnen von allem, was sie sich vorgenommen haben zu tun. Wohlauf, laßt uns herniederfahren und dort ihre Sprache verwirren, daß keiner des anderen Sprache verstehe! So zerstreute sie der Herr von dort in alle L¨ander, daß sie aufh¨oren mußten, die Stadt zu bauen. (Genesis 11, 1-9) Wie alle Macht, die Gott den Menschen u ¨bertragen hat, tr¨agt auch die Macht des Wissens das Angebot von Segen und Fluch in sich. Was Mose vor u ¨ber 3000 Jahren seinem Volk ausrichten ließ, gilt auch noch heute: Ich habe euch Leben und Tod, Segen und Fluch vorgelegt, damit du das Leben erw¨ahlst und am Leben bleibst, du und deine Nachkommen, indem ihr den Herrn, euern Gott, liebt und seiner Stimme gehorcht und ihm treu bleibt. Denn das bedeutet f¨ ur dich, daß du lebst und alt wirst und wohnen bleibst an dem Ort, an den dich Gott stellen wird. (Deuteronomium 30, 19-20) Das Leben w¨ahlen, darauf kommt es an – wie nahe daran sind wir heute, die Welt f¨ ur uns und unsre Nachkommen unbrauchbar zu machen! Als zuk¨ unftige Wissenschaftler tragen Sie in besonderem Maß Verantwortung f¨ ur den Weg, den unser Land und unsre Welt einschl¨agt. Machen Sie sich die M¨ uhe, Ihr Handwerk gr¨ undlich zu lernen, und gebrauchen Sie Ihr Wissen dann so, daß sich niemand f¨ ur Ihr Handeln sch¨amen muß. Ich w¨ unsche Ihnen Kraft, Ausdauer und Erfolg im Studium und im sp¨ateren Leben! Arnold Neumaier

Kapitel 1 Mathematische Grundbegriffe In diesem Kapitel lernen wir die wichtigsten Begriffe kennen, auf denen Mathematiker ihre Theorien aufbauen: Mengen, Ringe, K¨orper, Abbildungen und Gruppen. Dabei legen wir durch Axiome fest, wie man mit diesen Begriffen umgehen darf; dann untersuchen wir, welche Umformungen von den Axiomen her erlaubt sind und welche nicht. Auf die spezielle Natur der Objekte, mit denen wir ”rechnen”, kommt es dabei nicht an; in diesem Sinn ist in diesem Kapitel alles ”abstrakt”. Man stellt sich aber alle Begriffe konkret vor, indem man an ein oder zwei einfache Situationen anstelle der abstrakten Situation denkt; solche Beispiele f¨ ur eine ”angemessene” Anschauung werden zu allen Begriffen gegeben. Im n¨achsten Kapitel werden alle Begriffe im Kontext des physikalischen Raumes (R2 und R3 ) konkretisiert; jedoch muß man sich im Klaren dar¨ uber sein, daß die Begriffe auch in anderen Zusammenh¨angen mit anderer Bedeutung anwendbar sind. Den Umgang mit logischen Argumenten, mit Mengen, Abbildungen und Relationen nehmen wir als intuitiv bekannt an. Wir formulieren die wesentlichen Vorstellungen davon in Konventionen, ohne dabei axiomatische Strenge anzustreben; dies wird in Vorlesungen der Logik oder der Mengenlehre getan. Ansonsten werden unter dem Stichwort Konvention auch abk¨ urzende Schreibweisen vorgestellt. 1.1 Konvention Zur Abk¨ urzung mathematischer Objekte ben¨ utzen wir neben dem lateinischen Alphabet und einer Reihe von Sonderzeichen h¨aufig auch das griechische Alphabet: α A Alpha ι I Iota ̺, ρ P Rho β B Beta κ K Kappa ς, σ Σ Sigma γ Γ Gamma λ Λ Lambda τ T Tau δ D Delta µ M My υ Υ Ypsilon ǫ, ε E Epsilon ν N Ny ϕ, φ Φ Phi ζ Z Zeta ξ Ξ Xi χ X Chi η H Eta o O Omikron ψ Ψ Psi ϑ, θ Θ Theta π Π Pi ω Ω Omega 1.2 Konvention 1

2

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE (i) Wir verwenden die logischen Zeichen ⇒ ”daraus folgt”, ”impliziert”, ⇔ ”ist gleichwertig zu”, ”(ist) ¨aquivalent (zu)”, ”gilt dann und nur dann, wenn”, ”gilt genau dann, wenn”, ∀ ”f¨ ur alle”, ∃ ”es gibt (mindestens) ein”, ∃! ”es gibt genau ein” (d.h. nicht mehrere). Das Wort ”oder” bezeichnet stets ein nicht-ausschließendes oder: gilt ”a oder b”, so k¨onnen insbesondere auch a und b beide gelten. Ein Komma zwischen Formeln wird in der Regel als ”und” interpretiert. (ii) Die Definition einer Abk¨ urzung A f¨ ur eine Formel F schreiben wir als A := F (oder F =: A), aber :⇔, falls F ein logischer Ausdruck ist.

1.3 Konvention (i) Eine Menge M besteht aus Objekten mit (in irgendeiner Hinsicht) gleichen Eigenschaften. Von jedem beliebigen Objekt x steht fest, ob es zu M geh¨ort: x in M ′′ ,′′ x aus M ′′ ,′′ x liegt in M ′′ , ′′ x geh¨ort zu M ′′ ,′′ x ist Element von M ′′ , M ∋ x ′′ M enth¨alt x′′ , x∈M

′′

oder ob es nicht zu M geh¨ort (x 6∈ M ; M 6∋ x). Zwei Mengen M, N heißen gleich (Schreibweise M = N ), falls x ∈ M ⇔ x ∈ N.2 Gilt nur

x ∈ M ⇒ x ∈ N;

so heißt M Teilmenge von N ; man schreibt M ⊆N N ⊇M

′′

M enthalten (in) N ′′ , ′′ N enth¨alt M ′′ .

(ii) ist ω irgendeine Beziehung zwischen Objekten (eine Relation), so schrieben wir 6 ω f¨ ur die gegenteilige Beziehung nicht-ω; z.B. bedeutet x 6∈ M also ”x geh¨ort nicht zu M ”.Ebenso schreiben wir x ω y ω ′ z :⇔ x ω y und y ω ′ z; z.B. bedeutet 0 6= x ∈ M also ”x liegt in M und ist von Null verschieden”. (iii) Mengen mit wenigen Elementen werden durch Auflisten ihrer Elemente angegeben. ∅ (die leere Menge), {y},{y, z}, 2 usw. sind definiert durch x∈∅ : nie, x ∈ {y} :⇔ x = y, x ∈ {y, z} :⇔ x = y oder x = z,

3 usw.. Andere Mengen werden durch die Eigenschaften ihrer Elemente angegeben, z.B. bezeichnet {x ∈ M |E(x)} die Menge aller Elemente x ∈ M mit der Eigenschaft E(x). Man liest {a · · · |b · · ·} als ”Menge aller a · · · mit b · · ·”. (iv) Durchschnitt M ∩ N (”M geschnitten N ”), Vereinigung M ∪ N (”M vereinigt N ”) und Differenz M \ N (”M ohne N ”) von zwei Mengen M, N sind Mengen mit x ∈ M ∩ N :⇔ x ∈ M und x ∈ N, x ∈ M ∪ N :⇔ x ∈ M oder x ∈ N, x ∈ M \ N :⇔ x ∈ M, aber x 6∈ N. M und N heißen disjunkt, falls M ∩ N = ∅ (d.h. kein gemeinsames Element). (v) Das kartesische Produkt der Mengen M und N ist die Menge M × N aller Paare (x, y) mit x ∈ M und y ∈ N . Ebenso besteht M × N × P aus allen Tripeln (x, y, z) mit x ∈ M, y ∈ N, z ∈ P . Statt M × M schreiben wir auch M ×2 und statt M × M × M auch M ×3 . Man schreibt aber M 2 und M 3 , wenn man die Paare und Tripel in der Form xy bzw.   x    y  schreibt. z Bemerkung: F¨ ur x 6= y gelten die Paare (x, y) und (y, x) als verschieden! Dagegen sind die Mengen {x, y} und {y, x} dieselben.

Die folgenden Begriffe des Rings (bzw. des K¨orpers) zeichnen Mengen aus, mit deren Elementen man ¨ahnlich umgehen kann wie mit den aus der Schule bekannten ganzen (bzw. reellen) Zahlen. Es ist wichtig, daran zu denken, daß nicht alle f¨ ur Zahlen g¨ ultige Rechenregeln gefordert werden. Der Grund liegt darin, daß es wichtige Ringe gibt, in denen manche der gewohnten Regeln falsch sind. Z.B. gilt f¨ ur Zahlen stets a · b = b · a, in der Quantenmechanik gilt aber f¨ ur den Ort q und den Impuls p die Beziehung p · q − q · p = i · h ¯ (statt 0 wie bei Zahlen). 1.4 Definition Ein Ring ist eine Menge R, in dem die Null 0, die Eins 1 und zu je zwei Elementen x, y ∈ R die Summe x + y, die Differenz x − y und das Produkt x · y (kurz xy) liegen, und wo f¨ ur alle x, y, z ∈ R die folgenden Axiome gelten:

(R1) (x + y) + z = x + (y + z), (xy)z = x(yz),

(Assoziativgesetze)

(R2) (x + y)z = xz + yz, x(y + z) = xy + xz,

(Distributivgesetze)

(R3) (x + y) − y = (x − y) + y = x,

(Umkehrung der Addition)

(R4) 0 + x = x + 0 = x, 1 · x = x · 1 = x,

(Neutrale Elemente)

(R5) 0 6= 1.

(Nichtentartung)

4

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE

Man schreibt x2 := x · x ( Quadrat von x) +x := x, − x := 0 − x, 2 := 1 + 1 (” zwei ”) , 3 := 2 + 1 (” drei ”) , usw. Statt ”x = 0” sagt man auch oft ”x verschwindet”. 1.5 Definition Ein K¨ orper ist ein Ring K, der zu jedem x ∈ K und y ∈ K \ {0} den Quotienten x/y enth¨alt, und wo f¨ ur x, y ∈ K die Axiome (K1) xy = yx,

(kommutative Multiplikation)

(K2) (xy)/y = (x/y)y = x, falls y 6= 0

(Umkehrung der Multiplikation)

gelten. Man schreibt statt x/y auch xy , und nennt y −1 := 1/y die (oder das) Inverse von y ∈ K \ {0}. Zun¨achst denke man bei einem Ring stets an die Menge Z der ganzen Zahlen und an die Menge Z12 der Ziffern einer Uhr (mit 12=0). Da im zweiten Beispiel 3 · 4 = 0 gilt, sieht man, daß man vorsichtig sein muß und nicht alles von ”normalen” Zahlen gewohnte als Rechenregeln in Ringen nehmen darf. Bei einem K¨orper denke man an die Menge R der reellen Zahlen (und, falls bekannt, an die Menge C der komplexen Zahlen). Genaue Definitionen von Z, R, C werden in Kapitel 3 gegeben; bis dahin benutzen wir diese Mengen nur f¨ ur Beispiele. 1.6 Konvention Bei l¨angeren Ausdr¨ ucken haben die Operationen folgende Priorit¨at: Potenz, Produkt ohne Multiplikationspunkt, Quotient, Produkt mit Multiplikationspunkt, Summe oder Differenz, mengentheoretische Relationen, logische Relationen. In dieser Reihenfolge zuerst genannte Operationen werden zuerst ausgef¨ uhrt. Operationen gleicher Priorit¨at werden von links nach rechts bearbeitet. Abweichungen von dieser Regelung werden durch Klammern gekennzeichnet. Zum Beispiel ist 1/2x = 1/(2x), 1/2 · x/y = (1/2)(x/y), a + 1/a = a + (1/a), a − b − c = (a − b) − c. Wir leiten nun aus den Axiomen weitere Rechenregeln her. Wir werden sehen, daß in K¨orpern alle in der Schule einge¨ ubte Regeln f¨ ur die Umformung von Gleichungen gelten,

5 w¨ahrend man bei Ungleichungen aufpassen muß (z. B. ist 2 6= 0 f¨ ur Zahlen, aber es gibt K¨orper mit 2 = 0). F¨ ur Ringe bleiben die gewohnten Regeln f¨ ur Addition und Subtraktion richtig; bei der Multiplikation gibt es aber wesentliche Einschr¨ankungen. Insbesondere muß man auf die Reihenfolge der Faktoren achten und darf nicht ohne weiteres gemeinsame Faktoren k¨ urzen. Es ist erstaunlich, daß sich all die vielen Regeln aus so wenigen Axiomen herleiten lassen. 1.7 Proposition (Rechenregeln fu ¨ r Ringe) R sei Ring. F¨ ur beliebige a, b, c, d ∈ R gelten die folgenden Regeln: a ± b = c ⇒ a = c ∓ b, a ± c = b ± c ⇒ a = b, (K¨ urzungsregel) −a + a = a − a = 0, a ± 0 = a, a + (−b) = a − b, a + (−a) = 0, − (−a) = a, a ± b = 0 ⇒ b = ∓a, a − b = (a − c) + (c − b), −(a − b) = b − a, a + b = b + a, (Kommutativgesetz) (a + b)(c + d) = ac + ad + bc + bd, a(b − c) = ab − ac, (a − b)c = ac − bc, a·0=0·a=0 (−1)a = a(−1) = −a, (−a)b = a(−b) = −ab, (−a)(−b) = ab, (−a)2 = a2 .

(1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14) (15)

Dabei verwenden wir die Konvention, daß Formeln, die die Zeichen ± und/oder ∓ enthalten, so zu lesen sind, daß entweder stets das obere oder stets das untere Zeichen zu nehmen sind; z. B. ist (7) eine Abk¨ urzung f¨ ur die beiden Formeln a + b = 0 ⇒ b = −a und a − b = 0 ⇒ b = a. Beweis. F¨ ur die Herleitung darf man nur solche Eigenschaften verwenden, die Axiome, Abk¨ urzungen oder schon bewiesene Formeln sind. Die obigen Regeln sind so angeordnet, daß sie sich in der angegebenen Reihenfolge beweisen lassen; die einzige Ausnahme ist das Kommutativgesetz (10), das erst nach den Formeln (15) bewiesen wird. Die benutzten Regeln schreiben wir u ¨ber die Gleichheitszeichen und Folaustriagepfeile; ”Vor” bedeutet ”nach Voraussetzung”, ”Ann” bedeutet ”nach Annahme” und ”def” bedeutet ”nach Definition” oder ”gem¨aß einer schon definierten Abk¨ urzung”. Die Anwendung der Regeln erfolgt meistens durch Einsetzen von anderen Buchstaben oder Ausdr¨ ucken in die Regeln, bei gleichzeitigem Setzten von n¨otigen Klammern und Weglassen von u ussigen Klammern. (1): ¨berfl¨ Vor

(R3)

c ∓ b = (a ± b) ∓ b = a. (R3)

Vor

(R3)

(2): a = (a ± c) ∓ c = (b ± c) ∓ c = b.

6

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE def

(R3)

(R4)

(R3)

(3): −a + a = (−a) + a = (0 − a) + a = 0; a − a = (0 + a) − a = 0. (R1)

(R4)

(4): Aus (a + 0) + 0 = a + (0 + 0) = a + 0 ergibt sich a + 0 = a nach der K¨ urzungsregel (R3)

(2). Aus (a − 0) + 0 = a = a + 0 (wie eben gezeigt) ergibt sich a − 0 = a nach (2).

( 4) (3) (R1) (5): Aus a = a + 0 = a + ((−b) + b) = (a + (−b)) + b ergibt sich a + (−b) = a − b nach Regel (1). (5) (3) def (6): a + (−a) = a − a = 0 gibt die erste Formel. Mit (1) folgt a = 0 − (−a) = −(−a).

( 1) def (7): Aus der Voraussetzung folgt a = 0 ∓ b = ∓b. F¨ ur das untere Zeichen ist das die (6) Behauptung; f¨ ur das obere Zeichen folgt −a = −(−b) = b.

(5) (R1) (R3) (5) (8): (a − c) + (c − b) = a − c + (c + (−b)) = ((a − c) + c) + (−b) = a + (−b) = a − b.

(8) ( 3) ( 7) (9): Aus (b − a) + (a − b) = b − b = 0 folgt b − a = −(a − b).

(10): wird am Ende bewiesen und f¨ ur (11)-(15) nicht benutzt. (R2)

(R2)

(R1)

(11): (a + b)(c + d) = a(c + d) + b(c + d) = (ac + ad) + (bc + bd) = ((ac + ad) + bc) + bd = ac + ad + bc + bd nach der Konvention u ¨ber Priorit¨aten. (R2)

(R3)

(12): Aus a(b − c) + ac = a((b − c) + c) = ab folgt a(b − c) = ab − ac nach (1). Die zweite Formel folgt analog, d.h. durch mechanisches u ¨bertragen dieses Argumentes auf die (R2)

(R4)

(R4)

andere Situation (¨ ubungsaufgabe!). (13): Aus a · 0 + a · 1 = a(0 + 1) = a · 1 = 0 + a · 1 folgt a · 0 nach der K¨ urzungsregel (2). Die Formel 0 · a = 0 folgt analog. austria (14): Es (12) (13) def def ist a(−b) = a(0 − b) = a · 0 − ab = 0 − ab = −ab, und f¨ ur b = 1 ergibt sich speziell (R4)

a(−1) = −a · 1 = −a. Analog folgt (−a)b = −ab und (−1)b = −b.

(14) (14) (16) def (15): Es ist (−a)(−b) = −a(−b) = −(−ab) = ab. F¨ ur b = a folgt speziell (−a)2 = def (−a)(−a) = aa = a2 . Nun m¨ ussen wir noch den Beweis von (10) nachholen. Wir setzten (6) (14) (6) (14) def def c := −a, d := −b; dann ist a = −(−a) = −c = (−1)c und b = −(−b) = −d = (−1)d. Also ist

(R2) (14) ( 5) ( 9) ( 5) def def a+b = (−1)c+(−1)d = (−1)(c+d) = −(c+d) = −((c+(−b)) = −(c−b) = b−c = b+(−c) = b+a.

⊓ ⊔ Wie man an den Beweisen sieht, sind die Formeln (1)-(15) eine kurze Schreibweise f¨ ur Handlungsanweisungen, die zu korrekten Schl¨ ussen f¨ uhren. Dies wird auch f¨ ur viele sp¨atere Formeln gelten, und es ist n¨ utzlich, sich bei neuen Formeln zu fragen, was sie als Handlungsanweisung bedeuten. Ein paar andere Rechenregeln gelten nicht in allen Ringen; man hat deshalb besondere Namen f¨ ur die Ringe mit diesen zus¨atzlichen Eigenschaften. 1.8 Definition Ein Ring R heißt kommutativ, falls

7 (R6) xy = yx f¨ ur alle x, y ∈ R, und nullteilerfrei, falls (R7)

xy 6= 0 f¨ ur alle x, y ∈ R \ {0}.

(Ein nullteilerfreier, kommutativer Ring heißt Integrit¨ atsbereich, aber wir werden diesen Begriff nicht weiter ben¨ utzen. Er ist wichtig in der algebraischen Zahlentheorie). Der Ring der Ziffern einer Uhr hat ”Nullteiler” (z. B. ist 3 · 4 = 12 = 0), und wir werden auch bald wichtige Ringe kennen lernen, die nicht kommutativ sind. 1.9 Satz (i) Jeder K¨orper ist kommutativ und nullteilerfrei. (ii) In jedem kommutativen Ring gelten die binomischen Formeln (a ± b)2 = a2 ± 2ab + b2 , (a + b)(a − b) = a2 − b2 .

(16) (17)

(iii) In jedem nullteilerfreien Ring gelten die Ku ¨ rzungsregeln ab = 0 ac = bc, c 6= 0 ab = ac, a 6= 0

⇒ ⇒ ⇒

a = 0 oder b = 0, a = b, b = c.

(18) (19) (20)

Beweis. (i) Die Kommutativit¨at ist als Axiom (K1) gefordert. Die Nullteilerfreiheit zeigen wir durch Widerspruch, d.h. wir nehmen das Gegenteil der Behauptung an, und zeigen, daß man daraus eine mit den Voraussetzungen unvertr¨agliche Aussage bekommt. Das Gegenteil der Behauptung muß also falsch sein, die Behauptung also richtig. Im hier vorliegenden Fall ist x, y ∈ R\{0} die Voraussetzung und xy 6= 0 die Behauptung. Das Gegenteil der Behauptung ist also xy = 0, und dies wird im Konjunktiv vorausgesetzt. (K2)

Ann

Wir nehmen also an, es w¨are xy = 0. Nach Voraussetzung ist y 6= 0, also ist x = (xy)/y = (13) (K2) 0/y = (0y)/y = 0, im Widerspruch zur Voraussetzung x ∈ R \ {0}. Also muß xy 6= 0 sein. (11),(14) (R6) def = aa±ba±ab+bb = aa±ab±ab+bb = a2 ±(ab+ab)+b2 = (ii) (a±b)2 = (a±b)(a±b) a2 ± 2ab + b2 . Dabei verwenden wir die Regel a + a = 2a (¨ ubungsaufgabe!). Ebenso ist (11) (R6) (8) (a + b)(a − b) = , (14)aa − ab + ba − bb = aa − ab + ab − bb = aa − bb = a2 − b2 .

(iii) Wir beweisen (18) durch Widerspruch. W¨are die Schlußfolgerung falsch, so w¨aren a und b beide 6= 0, und dann nach (R7) auch ab 6= 0, Widerspruch. Also muß (18) richtig sein. (19): Aus ac = bc folgt 0 = ac − bc = (a − b)c, nach (18) also a − b = 0, da die zweite M¨oglichkeit c = 0 ausgeschlossen wurde. Nach (7) folgt a = b. (20) wird analog bewiesen.

8

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE ⊓ ⊔

F¨ ur K¨orper gelten außer den bisherige Regeln noch die gewohnten Regeln f¨ ur die Division: 1.10 Proposition (Weitere Rechenregeln fu orper) ¨ r K¨ K sei K¨orper, a, a′ , b, c, d ∈ K. (i) Ist b 6= 0, so gilt ab = c ⇔ a = c/b, a/b = a′ /b ⇒ a = a′ , bb−1 = b−1 b = b/b = 1, a/b = ab−1 , (b−1 )−1 = b, ab = 1 ⇒ a = b−1 , −a a a −a a − = =− , = . b −b b −b b

(21) (22) (23) (24) (25) (26) (27)

(ii) Sind b, d 6= 0, so gilt ac a c · = , b d bd a ad = , bd b ad a c / = falls auch c 6= 0, b d bc (b/d)−1 = d/b, (bd)−1 = d−1 b−1 .

(28) (29) (30) (31) (32)

Beweis. (i) Die meisten Argumente entsprechen denen im Beweis zum Satz 1.9, wobei + und − durch · und / zu ersetzen sind. ¨ (21): Wegen des Aquivalenzpfeils m¨ ussen wir einen Vorw¨artsbeweis und einen R¨ uckw¨arts(K2)

beweis f¨ uhren. Ist ab = c, so ist c/b = (ab)/b = a, also a = c/b. Ist umgekehrt a = c/b, so (K2)

ist ab = (c/b)b = c. (K2)

Vor

(K2)

(22) : a = (a/b)b = (a′ /b)b = a′ . (K1)

def

(K2)

(R4)

(K2)

(23) : bb−1 = b−1 b = (1/b)b = 1; b/b = (1 · b)/b = 1. (R4) (23) (R1) (24): Aus a = a · 1 = a(b−1 b) = (ab−1 )b folgt ab−1 = a/b mit (21). (23) (21) def (25): Aus bb−1 = 1 folgt b = 1/(b−1 ) = (b−1 )−1 . (21) def (26): Aus der Voraussetzung folgt a = 1/b = b−1 . (27) folgt aus (21) und (14) (¨ ubungsaufgabe!).

9 (23) (23) (ii) (28) fogt aus (26) wegen (bd)(d−1 b−1 ) = b(dd−1 )b−1 = bb−1 = 1, und (29) folgen aus (24) (28) (25) (24) (b/d)−1 = (bd−1 )−1 = (d−1 )−1 b−1 = db−1 = d/b. (24) (K1) (28) (30) ergibt sich nun aus a/b · c/d = ab−1 cd−1 = acd−1 b−1 = ac(bd)−1 = ac/bd, (31) (30) (23) (24) (29) aus ad/bd = a/b · d/d = a/b · 1 = a/b, und (32) aus (a/b)/(c/d) = (a/b)(c/d)−1 = (30) (a/b)(d/c) = ad/bc. ⊓ ⊔

⊓ ⊔

1.11 Bemerkung. (32) ist absichtlich in dieser Reihenfolge geschrieben, weil die Formel in dieser Form noch in allgemeineren Situationen richtig bleibt, wo (bd)−1 6= b−1 d−1 . Man gew¨ohne sich daran, beim Invertieren eines Produkts die Reihenfolge wie in (32) zu vertauschen. Das a′ in (22) ist selbstverst¨andlich keine Ableitung von a; es ist nur eine weitere Art, variable Elemente zu bezeichnen, und soll lediglich die Symmetrie in der Formel betonen. Man h¨atte genausogut a/b = c/b ⇒ a = c schreiben k¨onnen. Außer den Objekten, mit denen wir rechnen k¨onnen, ben¨otigen wir als weiteren grundlegenden Teil der mathematischen Sprache den Begriff der Abbildung. Auch diesen Begriff setzen wir als intuitiv bekannt voraus und pr¨azisieren ihn nur durch eine Konvention:

1.12 Konvention

(i) Eine Abbildung ϕ : D → E (gelesen: ”ϕ von D nach E”) ist eine Vorschrift, die jedem Element x der Menge D =: Def(ϕ) dem Definitionsbereich von ϕ) ein Bild ϕ(x) (gelesen: ”ϕ von x′′ ) aus der Menge E (dem Zielbereich von ϕ) zuordnet. Jedes Element x ∈ D mit ϕ(x) = a heißt ein Urbild von a ∈ E. Jedes x ∈ D hat genau ein Bild, aber a ∈ E kann kein, ein oder mehrere Urbilder besitzen. (ii) Zwei Abbildungen ϕ, ψ heißen gleich, ϕ = ψ, falls Def(ϕ) = Def(ψ) und ϕ(x) = ψ(x) f¨ ur alle x aus dem gemeinsamen Definitionsbereich.

Den Abbildungsbegriff veranschaulicht man sich am besten als Projektion eines physikalischen Objekts auf eine Leinwand.

10

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE E(Leinwand) D(Baum)

Punkt mit vielen Urbildern ϕ(x)

x

Bild Range ϕ ϕ ϕ(M )

M (Stamm)

Punkt ohne Urbild 1.13 Definition ϕ : D → E sei eine Abbildung. (i) F¨ ur M ⊆ D heißt

ϕ(M ) := {ϕ(x)|x ∈ M }

das Bild von M (unter ϕ), und f¨ ur N ⊆ E heißt

ϕ−1 (N ) := {x ∈ D|ϕ(x) ∈ N } das Urbild von M (unter ϕ). Das Bild ϕ(D) des ganzen Definitionsbereichs wird auch mit Range ϕ (”Bild von ϕ”; engl. range = Bereich) bezeichnet. (ii) Hat jedes Element a ∈ E genau ein Urbild ϕ−1 (a), ist also ϕ−1 ({a}) = {ϕ−1 (a)}, so heißt ϕ bijektiv (oder eine Bijektion von D nach E), und die durch die Urbilder definierte Abbildung ϕ−1 : E → D heißt die Umkehrabbildung oder Inverse von ϕ. (iii) Hat jedes Element a ∈ E mindestens ein Urbild, so heißt ϕ : D → E surjektiv. Hat jedes Element a ∈ E h¨ochstens ein Urbild, so heißt ϕ : D → E injektiv. Jede injektive Abbildung ϕ : D → E ist insbesondere eine Bijektion von D nach ϕ(D). (iv) Ist ϕ : D → E eine Abbildung und M eine Teilmenge von D, so heißt die Abbildung ϕ|M : M → E (”ϕ eingeschr¨ankt auf M ”) mit Def (ϕ|M ) = M und ϕ|M (x) = ϕ(x) f¨ ur x ∈ M die Einschr¨ ankung von ϕ auf M . 1.14 Beispiel. Eine gebr¨auchliche Art, Abbildungen zu definieren, besteht darin, einen Ausdruck zu bilden, der f¨ ur alle x ∈ D Sinn macht, in einem K¨orper K also etwa x+x−1 (x ∈ K \ {0}). Man sagt dann, durch f (x) := x + x−1 (33) sei eine Abbildung f : K \ {0} → K definiert. Der ”nat¨ urliche” Definitionsbereich ist in diesem Fall Def(f ) = K \ {0}. Vereinfacht werden wir f¨ ur eine solche Abbildung auch die Schreibweisen die Abbildung f : x → x + x−1 (x ∈ K \ {0})

11 oder die Abbildung x → x + x−1 (x ∈ K \ {0}) benutzen. Entsprechend werden wir f¨ ur andere durch Ausdr¨ ucke definierte Abbildungen verfahren. (Die f¨ ur die Abbildung (33) naheliegende Bezeichnung ”Funktion” werden wir erst sp¨ater – in Def. 6.10 – f¨ ur eine besondere Klasse von Abbildungen benutzen.) 1.15 Beispiel. (i) Sei D = {1, 2}. Die Abbildungen φ von D nach E sind dann durch die Bilder φ1 = φ(1) ∈ E und φ2 = φ(2) ∈ E festgelegt. Man kann deshalb die Abbildung φ ebensogut durch das Paar φφ12 in E 2 beschreiben. (ii) F¨ ur D = {1, 2, 3} sind Abbildungen φ : D → E ebenso durch Tripel in E 3 festgelegt.

1.16 Konvention (i) Es ist oft n¨ utzlich, ohne Umst¨ande von einer Notation zu einer anderen gleichwertigen Notation u ¨ bergehen zu k¨onnen. Wir werden daher Paare und Tripel mit Abbildungen von {1, 2} bzw. {1, 2, 3} in eine Menge identifizieren, d.h. als dasselbe betrachten. Analoge Identifikationsprozesse werden auch sp¨ater immer wieder vorkommen. (ii) Die obige Identifikation legt außerdem nahe, allgemein die Menge aller Abbildungen von D nach E mit E D zu bezeichnen, so daß E {1,2} = E 2 und E {1,2,3} = E 3 wird. 1.17 Definition (i) Die Abbildung I : D → D mit I(x) = x heißt Identit¨ at auf D; wir bezeichnen sie immer mit I. Eine andere u ¨ bliche Bezeichnung ist idD , wenn der Definitionsbereich D betont werden soll. (ii) Ist φ eine Abbildung von D nach E und ψ eine Abbildung von C nach D, so wird durch die Nacheinanderausfu ¨ hrung (φ ◦ ψ)(x) := φ(ψ(x))

f¨ ur x ∈ C

eine Abbildung φ ◦ ψ (”φ nach ψ”) von C nach E definiert.

(iii) Man sagt, zwei Abbildungen φ, ψ : D → D kommutieren, falls φ ◦ ψ = ψ ◦ φ.

C

ψ

D

. .......................................................................................... . ..... ..... ... ..... ... ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... ... ..... ..... . . ........... ..... .. ..... ................. ..

φ◦ψ

φ

E

1.18 Proposition Soweit die Nacheinanderausf¨ uhrung Sinn macht, gilt stets I ◦ φ = φ ◦ I = φ,

(34)

12

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE

(φ ◦ ψ) ◦ ω = φ ◦ (ψ ◦ ω),

(35)

φ ◦ φ−1 = φ−1 ◦ φ = I.

(36)

und falls φ bijektiv ist, auch

Beweis. Aus (I ◦ φ)(x) = I(φ(x)) = φ(x) = φ(I(x)) = (φ ◦ I)(x) f¨ ur alle x folgt (34), und (35) ergibt sich aus ((φ ◦ ψ) ◦ ω)(x) = (φ ◦ ψ)(ω(x)) = φ(ψ(ω(x)) = φ((ψ ◦ ω)(x)) = (φ ◦ (ψ ◦ ω))(x) f¨ ur −1 −1 −1 −1 alle x. Ist φ bijektiv, so gilt ebenso (φ◦φ )(x) = φ(φ (x)) = x = φ (φ(x)) = (φ ◦φ)(x), und (36) folgt. ⊓ ⊔ Man beachte, daß f¨ ur φ : D → E das erste I in (34) die Identit¨at idE auf E ist, das zweite I dagegen die Identit¨at idD auf D. Ist E = D, so entf¨allt dieser Unterschied. Beachte außerdem, daß normalerweise φ ◦ ψ 6= ψ ◦ φ ist: Damit beide Ausdr¨ ucke Sinn machen, muß φ : D → E und ψ : E → D sein. φ ◦ ψ geht dann von E → E, aber ψ ◦ φ von D → D. Selbst f¨ ur D = E ist meist φ ◦ ψ 6= ψ ◦ φ. 1.19 Beispiel. Es sei φ(1) = 1, φ(2) = 3 und ψ(1) = 2. Dann ist (φ ◦ ψ)(1) = φ(ψ(1)) = φ(2) = 3 und (ψ ◦ φ)(1) = ψ(φ(1)) = ψ(1) = 2, also sind φ ◦ ψ und ψ ◦ φ verschiedene Abbildungen. Man sieht aus (34)–(36), daß die Nacheinanderausf¨ uhrung von Abbildungen sich ¨ahnlich verh¨alt wie die Multiplikation von Zahlen; vgl. Uhr, Zahlengerade, Rechenschieber! Um ¨ diese Ahnlichkeit noch mehr zu betonen, benutzt man f¨ ur Abbildungen oft die sogenannte Operatorschreibweise, in der man unn¨otige Klammern und Nacheinanderausf¨ uhrungssymbole wegl¨aßt. 1.20 Konvention Mit (in der Regel) großen lateinischen Buchstaben A, B, . . ., bezeichnen wir Abbildungen, f¨ ur die wir die Operatorenschreibweise Ax := A(x),

Bx := B(x),

AB := A ◦ B

verwenden, soweit die rechten Seiten definiert sind. AB heißt dann das Produkt von A und B. 1.21 Definition (i) Eine Abbildungsgruppe auf D ist eine Menge G von bijektiven Abbildungen von D nach D mit den Eigenschaften (AG1) A ∈ G ⇒ A−1 ∈ G,

(AG2) A, B ∈ G ⇒ AB ∈ G.

(ii) Eine (abstrakte) Gruppe ist eine nichtleere Menge G von Elementen mit einer Multiplikation, die zwei Elementen A, B ∈ G ein Produkt AB so zuordnet, daß

13 (G1) (AB)C = A(BC) (Assoziativgesetz) gilt, und wo jedem A ∈ G eine Inverse A−1 ∈ G so zugeordnet ist, daß

(G2) AX = B ⇔ X = A−1 B,

(G3) XA = B ⇔ X = BA−1 .

(iii) Eine Gruppe G heißt abelsch, falls das Kommutativgesetz AB = BA f¨ ur alle A, B ∈ G gilt. 1.22 Proposition (i) In jeder Abbildungsgruppe gelten (G1) und (G2). (ii) In jeder Gruppe G gibt es eine eindeutige Identit¨at I mit AI = IA = A,

AA−1 = A−1 A = I

(37)

f¨ ur alle A ∈ G, und es gilt (AB)−1 = B −1 A−1 .

(38)

Beweis. (i) Die Assoziativit¨at (G1) gilt wegen (35). Ist AX = B, so ist A−1 B = A−1 (AX) = (A−1 A)X = IX = X nach (36) und (34), und umgekehrt folgt aus X = A−1 B, daß AX = A(A−1 B) = (AA−1 )B = IB = B ist. Also gilt (G2). Analog ergibt sich (G3). (ii) F¨ ur beliebige A, B ∈ G ist X = B L¨osung von AX = AB, also B = X = A−1 (AB) = (A−1 A)B nach (G2) und (G1). F¨ ur I := A−1 A gilt also IB = B, und nach (G3) ist I = BB −1 eindeutig bestimmt. Also muß I unabh¨angig von A und nat¨ urlich auch unabh¨angig von B sein. Weiter ist AI = A(A−1 A) = (AA−1 )A = IA = A, so daß (37) gilt. Schließlich ist X ′ = B −1 A−1 L¨osung von X ′ (AB) = B −1 A−1 AB = B −1 IB = B −1 B = I, also (AB)−1 = I(AB)−1 = X ′ = B −1 A−1 . ⊓ ⊔ 1.23 Bemerkung. Man kann auch (37) als Axiom nehmen und daraus (G2), (G3) herleiten. Wir werden Gruppen nur in Form von Abbildungsgruppen benutzen, und daher nur (AG1) und (AG2) nachpr¨ ufen m¨ ussen. 1.24 Beispiele. K sei K¨orper. (i) Die Menge der Translationen Ta (a ∈ K) mit Ta x := x+a bilden eine abelsche Gruppe. Es ist Ta Tb = Ta+b und Ta−1 = T−a . (ii) Die Menge der Streckungen Sα (α ∈ K \ {0}) mit Sα x := αx bilden eine abelsche Gruppe, es ist Sα Sβ = Sαβ und (Sα )−1 = Sα−1 . (iii) Die Menge der Transformationen Lα,a (α ∈ K \ {0}, a ∈ K) mit Lα,a x := αx + a bilden eine nichtabelsche Gruppe, falls K mehr als zwei Elemente enth¨alt: Es ist Lα,a Lβ,b x = Lα,a (βx + b) = α(βx + b) + a = αβx + αb + a, also Lα,a Lβ,b = Lαβ,αb+a.

14

KAPITEL 1. MATHEMATISCHE GRUNDBEGRIFFE

Vertauscht man hier α, a und β, b, so findet man Lβ,b Lα,a = Lβα,βa+b. F¨ ur α = 1, β 6= 0, 1 und a 6= 0 ist αb + a = a + b 6= βa + b, also ist das Kommutativgesetz ¨ verletzt. Was ist (Lα,a )−1 ? (Ubungsaufgabe) (iv) Die Menge Sym(D) aller bijektiven Abbildungen einer Menge D auf sich ist eine Gruppe; man nennt sie die symmetrische Gruppe auf D. Umkehrabbildung und Produkt von bijektiven Abbildungen von D sind n¨amlich offensichtlich wieder bijektiv. Elemente von Sym(D) nennt man auch Permutationen von D, insbesondere dann, wenn man sich die Elemente von D aufgereiht denken kann. Dann entspricht eine bijektive Abbildung n¨amlich gerade einer Umordnung von D. Intuitive geometrische Beispiele f¨ ur Abbildungsgruppen, denen wir bald eine pr¨azise Definition geben werden, sind die Menge der Translationen in der Ebene oder im Raum, die Menge der Drehungen um einen festen Punkt, oder die Menge der Abbildungen, die aus einer Drehung um einen beliebigen Punkt und einer nachfolgenden Translation bestehen. Im letzten Fall ist es ohne formale Hilfsmittel schon un¨ ubersichtlich zu sehen, daß (AG2) erf¨ ullt ist. Abbildungsgruppen haben in der Physik als Symmetriegruppen besondere Bedeutung. Symmetrie kann sich dabei auf Versuchsanordnungen beziehen, die unter bestimmten Abbildungen unver¨andert (invariant) bleiben (z.B. Kugelsymmetrie als Invarianz unter Drehungen um den Mittelpunkt), aber auch auf physikalische Gesetze (Galilei-Invarianz unter Translationen, Rotationen und Zeitverschiebungen; Lorentz-Invarianz und Poincar´eInvarianz in der Relativit¨atstheorie, innere Symmetrien in der Elementarteilchentheorie).

Kapitel 2 Zahlen Motivation (anhand von Schulkenntnissen): Wir beginnen die Vorlesung mit einer Pr¨azisierung des Begriffs der komplexen Zahl. Komplexe Zahlen sind grundlegend f¨ ur das Verst¨andnis von Physik: Schwingungen (mechanische, elektromagnetische) und Wahrscheinlichkeitswellen (in der Quantenphysik) werden z.B. damit beschrieben. Wir motivieren die Diskussion mit dem Beispiel einer harmonischen Schwingung. Die Auslenkung zum Zeitpunkt t ist s = A cos(ωt). (Kreisfrequenz ω, Amplitude A > 0) und die Geschwindigkeit ist

ds = −Aω sin(ωt). dt Tr¨agt man v/ω gegen s im Phasendiagramm auf, erh¨alt man eine Kreislinie, die in der Periode T = 2π/ω durchlaufen wird. v=

v ω

x=s+i

|x| =

A

Rex

v ω

R

t = 0, T, 2T, ... Imx t>0 -

R+

v ω x = s-i

v ω

Wir interpretieren das Phasendiagramm als komplexe Zahlenebene, indem wir x = s + iv/ω √ mit i = −1 setzen. Der Betrag (Abstand vom Nullpunkt) ist konstant, |x| = A. Am Ausgangspunkt ist die Auslenkung gerade gleich dem Radius, x = A = |x|. Umkehr der Zeitrichtung entspricht der Betrachtung von −v statt v und liefert den konjugierten Punkt x = s − iv/ω. Ruhepunkte (v = 0) liegen auf der reellen Achse; dort hat die Konjugation keinen Effekt, x = x. Den Satz von Pythagoras nutzen wir zur Herleitung der Beziehung xx = (s + iv/ω)(s − iv/ω) = s2 + (v/ω)2 = |x|2 . 15

16

KAPITEL 2. ZAHLEN

Die axiomatische Methode geht von den hier motivierten Begriffen aus und legt fest, welche Regeln f¨ ur den Umgang damit gelten. Diese Regeln (Axiome) sind so gew¨ahlt, daß sie unserer Vorstellung von Zahlen entsprechen. Die Grundrechnungsarten machen wir uns dabei daduch verf¨ ugbar, daß wir verlangen, daß die Zahlen einen K¨orper bilden. Dies bedeutet (vgl. Kapitel 1, daß die von der Schule her gewohnten Regeln f¨ ur den Umgang mit Rechenoperationen, Umformungen und Einsetzungen in allen Gleichungen benutzt werden k¨onnen. Axiome und Regeln u ¨ber Ungleichungen werden wir dagegen formulieren und beweisen m¨ ussen. 2.1 Definition K sei ein K¨orper, der zu jedem x ∈ K den Betrag |x| und die Konjugierte x¯ enth¨alt. (i) Elemente von K heißen Zahlen. Eine Zahl x ∈ K heißt reell, falls x = x¯. (ii) Eine Zahl x ∈ K heißt nichtnegativ, falls x = |x|. Wir schreiben (und sagen) x ≤ y (”x kleiner gleich y”) oder y ≥ x (”y gro ¨ßer gleich x”), wenn y − x nichtnegativ ist. (Insbesondere bedeutet x ≥ 0 dasselbe, wie ”x ist nichtnegativ”). (iii) Eine Teilmenge M ⊆ K heißt beschr¨ ankt, falls eine Zahl s ∈ K mit |x| ≤ s f¨ ur alle x ∈ M

(1)

existiert. Jede Zahl s mit (1) heißt eine Schranke von M . 2.2 Konvention aRbSc :⇔ aRb, bSc f¨ ur R, S ∈ {≤, =, ≥}; analog f¨ ur mehr als drei Terme a, b, c und andere Relationen R, S. Betragsaxiome (B1) | − x| = |x| ≥ 0,

−1 6= 1.

(B2) Mit x und y sind auch x + y und xy nichtnegativ. (B3) Jede beschr¨ankte Menge M nichtnegativer Zahlen hat ein Supremum, d.h. eine Schranke s′ mit der Eigenschaft s′ ≤ s f¨ ur jede Schranke s von M . (s′ ist also eine ”kleinste” obere Schranke.) Konjugationsaxiome (C1) x¯ = x,

(Involution)

(C2) x + y = x¯ + y¯, xy = x¯y¯,

(Invarianz)

(C3) x¯ x = |x|2 .

(Pythagoras)

(2)

17 2.3 Bemerkung. (C2) ist dadurch motiviert, daß wir erwarten, daß (in reibungsfreien Systemen) die Zeitumkehr nichts Wesentliches ¨andert; die G¨ ultigkeit von (C2) h¨angt aber nicht von physikalischer Intuition ab, sondern wird einfach verlangt. (C3) ist der Satz von Pythagoras. Was in der Schule ein aus der Anschauung beweisbarer Satz war, ist hier ein Ausgangspunkt, der wieder einfach verlangt wird. 2.4 Definition Jeder K¨orper K, in dem Betrag und Konjugierte mit den Axiomen (B1-3) und (C1-3) definiert sind und wo nicht alle Zahlen reell sind, heißt Ko ¨rper der komplexen Zahlen (Bezeichnung K = C). Wir schreiben R := {x ∈ C | x¯ = x},

R+ := {x ∈ C | x ≥ 0},

R− := {x ∈ C | x ≤ 0}.

2.5 Bemerkung. Man kann zeigen, daß C durch die Axiome bis auf Isomorphie (d.h. bis auf Bezeichnungsweise) festgelegt ist. Die Bezeichnungsweise ist durch Traditionen geregelt. Wir packen nun allm¨ahlich die Information aus, die in den Definitionen und Axiomen steckt, und stellen so unsere Rechengewohnheiten auf eine sichere Grundlage. Da es K¨orper mit 1 + 1 = 0 gibt, halten wir f¨ ur Zahlen ausdr¨ ucklich fest : 2.6 Proposition Die Zahl 2 := 1 + 1 ist von Null verschieden. Beweis. (durch Widerspruch): W¨are 1 + 1 = 0, so w¨are −1 = −1 + 0 = −1 + (1 + 1) = 1 im Widerspruch zum Axiom (B1). Also ist 1 + 1 6= 0. ⊓ ⊓ ⊔ ⊔

2.7 Proposition Es gilt (C4) 0 = 0, x − y = x¯ − y¯, (C5) ¯1 = 1, x/y = x¯/¯ y falls y 6= 0, (C6) ¯2 = 2. Beweis. (C4): Aus x¯ = (x − y) + y = x − y + y¯ folgt x − y = x¯ − y¯, und f¨ ur x = y folgt ¯0 = 0. ¨ (C5) als Ubungsaufgabe. ¯ ⊓ ⊔ (C6): 2 = 1 + 1 = ¯1 + ¯1 = 1 + 1 = 2. ⊓ ⊔

2.8 Satz (i) Die Menge R der reellen Zahlen ist ein K¨orper. (ii) F¨ ur x ∈ R\{0} ist genau eine der Zahlen x und −x nichtnegativ. (iii) Jede nichtnegative Zahl ist reell. (iv) R+ ∩ R− = {0},

R+ ∪ R− = R.

18

KAPITEL 2. ZAHLEN

Beweis. (i) Sei x, y ∈ R. Dann ist x = x¯, y = y¯, also auch x + y = x¯ + y¯ = x+y. Daher ist x+y ∈ R. Mit (C2), (C4), (C5) folgt ebenso x − y ∈ R, xy ∈ R und (f¨ ur y 6= 0) x/y ∈ R. Daher sind die Grundrechnungsarten innerhalb von R definiert. Wegen (C4) und (C5) ist 0, 1 ∈ R, und die Rechengesetze f¨ ur K¨orper gelten, da sie in C gelten. Daher ist R ein K¨orper. (ii) F¨ ur x ∈ R ist |x|2 = x¯ x = x2 , also (|x| − x)(|x| + x) = |x|2 − x2 = 0. Daher ist |x| − x = 0 oder |x| + x = 0, d.h. es ist x = |x| oder −x = |x| = | − x|, d.h. x oder −x ist nichtnegativ. Gilt beides, so ist x = |x| = −x, und f¨ ur x 6= 0 (folgt nach Division durch x) 1 = −1, im Widerspruch zu (B1). Also gilt (ii). (iii) Ist x ∈ R+ \{0}, so ist x¯ = |x|2 /x = x2 /x = x, also x ∈ R. Dies gilt auch f¨ ur x = 0. (iv) Wegen 0 ∈ R und R− = {−x | x ∈ R+ } folgt R+ ∪ R− ⊆ R; Aus (ii) ergibt sich R ⊆ R+ ∪R− . Beides zusammen ergibt R+ ∪R− = R. Wegen (ii) gilt auch R+ ∩ R− = {0}. ⊓ ⊔ ⊓ ⊔

2.9 Satz (i) C enth¨alt eine Zahl i mit i2 = −1. (ii) Jedes z ∈ C hat eine eindeutige Darstellung der Form z = a + ib mit a, b ∈ R, und es gilt a = Re z := (z + z¯)/2, b = Im z := (z − z¯)/2i, (3) z¯ = a − ib,

|z|2 = a2 + b2 .

(4)

Re z heißt der Realteil, und Im z der Imagin¨ arteil von z. Beweis. (i) Nach Definition 2.4 sind nicht alle Zahlen reell, es gibt also ein z ∈ C mit z 6= z. Dann ist y := z − z 6= 0 und y = z − z = z − z = z − z = −y . Daher erf¨ ullt i := y/|y| die 2 2 2 2 Gleichung i = y /|y| = y /yy = y/y = −1, und es ist i = y/|y| = y/|y| = −y/|y| = −i. (ii) Ist z = a + ib mit a, b ∈ R, so ist z = a + ib = a + i b = a − ib und |z|2 = zz = (a+ib)(a−ib) = a2 +iba−aib−i2 b2 = a2 +b2 . Also gilt (4). Wegen z +z = a+ib+a−ib = 2a und z − z = a + ib − (a − ib) = 2ib gilt auch (3); insbesondere sind a, b eindeutig bestimmt. Umgekehrt sind die durch (3) definierten a, b reell, denn es ist a = (z + z)/2 = (z + z)/2 = (z + z)/2 = a, b = (z − z)/2i = (z − z)/¯2¯i = (¯ z − z)/(−2i) = (z − z)/(2i) = b. und es gilt a + ib = (z + z)/2 + (z − z)/2 = 2z/2 = z, d.h. eine Zerlegung der geforderten Art existiert tats¨achlich. ⊓ ⊓ ⊔ ⊔

19 2.10 Bemerkung. i ist bis auf das Vorzeichen eindeutig bestimmt. Ist j 2 = −1,so ist (j − i)(j + i) = j 2 − i2 = −1 − (−1) = 0, also j − i = 0 oder j + i = 0, alsoj = ±i. Die ”falsche” Wahl von i entspricht einer Konjugation aller Zahlen. 2.11 Beispiel. (mit gewohnter Notation f¨ ur reelle Zahlen): F¨ ur x := 3 + 4i,

y := 12 − 5i

ist Re x = 3, Im x = 4, x = 3 − 4i, Re y = 12, Im y = −5, y = 12 + 5i, |x|2 = 32 + 42 = 25, |x| = 5, |y|2 = 122 + 52 = 169, |y| = 13, x + y = 3 + 4i + 12 − 5i = 15 − i, x − y = 3 + 4i − (12 − 5i) = −9 + 9i, xy = (3 + 4i)(12 − 5i) = 36 + 48i − 15i − 20i2 = 56 + 33i wegen i2 = −1. Quotienten berechnet man durch Erweitern mit dem Konjugierten: x/y = xy/yy = xy/|y|2 ,

(5)

im Beispiel also 3 + 4i (3 + 4i)(12 + 5i) 16 63 36 + 48i + 15i + 20i2 x = = = + i. = 2 2 y 12 − 5i 12 + 5 169 169 169 2.12 Proposition (Ordnungseigenschaften) F¨ ur x, y, z ∈ R gilt: (i) x ≤ x,

(Reflexivit¨at)

(ii) x ≤ y, y ≤ x ⇒ x = y,

(Antisymmetrie)

(iii) x ≤ y, y ≤ z ⇒ x ≤ z,

(Transitivit¨at)

(iv) x ≤ y ⇒ x ± z ≤ y ± z,

(Vertr¨aglichkeit mit +)

(v) x ≤ y, 0 ≤ z ⇒ xz ≤ yz,

(Positive Vertr¨aglichkeit mit ·)

(vi) x ≤ y, 0 ≥ z ⇒ xz ≥ yz. (Zeichenumkehr) Merkregel zu (v),(vi): Multiplikation von Ungleichungen mit positiven Zahlen erh¨alt das Ungleichungszeichen, Multiplikation mit negativen Zahlen dreht das Ungleichungszeichen um. Beweis. (i) Wegen x − x = 0 ≥ 0 ist x ≤ x nach Definition von ≤. (ii) Die Voraussetzung besagt x − y ≥ 0, y − x ≥ 0. Wegen y − x = −(x − y) folgt x − y ∈ R+ ∩ R− = {0}, also x − y = 0, also x = y.

20

KAPITEL 2. ZAHLEN

(iii) Die Voraussetzung besagt y − x, z − y ≥ 0. Nach (B2) ist dann auch z − x = (z − y) + (y − x) ≥ 0, also x ≤ z. (iv) Es ist (y ± z) − (x ± z) = y − x ≥ 0 nach Voraussetzung, also x ± z ≤ y ± z. (v) Nach Voraussetzung ist y − x ≥ 0, z ≥ 0, nach (B2) also yz − xz = (y − x)z ≥ 0, d.h. es ist xz ≤ yz. (vi) Nach Voraussetzung ist y − x ≥ 0, − z ≥ 0, also xz − yz = (y − x)(−z) ≥ 0, d.h. es ist xz ≥ yz. ⊓ ⊔ ⊓ ⊔

2.13 Definition Wir schreiben (und sagen) x > y (”x gr¨ oßer y”) oder y < x (”y kleiner x”), falls x ≥ y und x 6= y. x heißt positiv, falls x > 0 und negativ, falls x < 0. (F¨ ur reelle Zahlen bedeutet ”nichtnegativ” dasselbe wie ”nicht negativ”; f¨ ur komplexe Zahlen leider nicht.) 2.14 Proposition (i) F¨ ur x, y ∈ R gilt genau eine der Relationen x < y, x = y, x > y. (ii) x > 0, y ≥ 0 ⇒ x + y > 0. (iii) x > 0, y > 0 ⇒ xy > 0. (iv) y > x > 0 ⇒ 0 < x−1 < y −1 . Beweis. (i) Wegen Satz 2.8(iv) gilt genau eine der Relationen x − y < 0, x − y = 0, x − y > 0. (ii) Nach (B2) ist x + y ≥ 0. W¨are x + y = 0, so w¨are x = −y < 0 im Widerspruch zur Voraussetzung x > 0. Also ist x + y > 0. (iii) Nach (B2) ist xy ≥ 0. W¨are xy = 0, so w¨are y = 0/x = 0 im Widerspruch zur Voraussetzung. Also ist xy > 0. (iv) W¨are x−1 ≤ 0, so w¨are 1 = xx−1 ≤ x0 = 0 nach Proposition 2.12(v),Widerspruch. Also ist x−1 > 0, und ebenso folgt y −1 > 0. Nun ist x−1 − y −1 = x−1 (y − x)y −1 > 0, also x−1 > y −1 . ⊓ ⊔ ⊓ ⊔

21 2.15 Proposition (strikte Ordnungseigenschaften) F¨ ur x, y, z ∈ C gilt: (i) x ≤ y, y < z ⇒ x < z, (ii) x < y, y ≤ z ⇒ x < z, (iii) x < y ⇒ x ± z < y ± z, (iv) x < y, 0 < z ⇒ xz < yz, (v) x < y, z < 0 ⇒ xz > yz, (vi) x < y ⇒ x
0 < y. ⊓ ⊓ ⊔ wegen Proposition 2.14(iv)) ergibt x < x+y ⊔ 2

2.16 Bemerkung. 2.17 Proposition

x+y 2

heißt das arithmetische Mittel von x und y.

(i) F¨ ur x ∈ R gilt x2 ≥ 0 und ( x falls x ≥ 0, |x| = −x falls x ≤ 0.

(ii) F¨ ur x, y ≥ 0 gilt x2 ≤ y 2 ⇒ x ≤ y. (iii) Es ist 0 < 1 < 2. Beweis. ¨ (i) als Ubungsaufgabe. (ii) Ist x > y, so ist x > 0 nach Proposition 2.15(i), also x2 > xy = yx ≥ y 2 , also x2 > y 2 nach Proposition 2.15(i), im Widerspruch zur Annahme. Also ist x ≤ y nach Proposition 2.14(i). (iii) Nach (i) ist 1 = 12 ≥ 0, also 1 > 0 wegen 1 6= 0. Damit ist auch 1 = 1 + 0 < 1 + 1 = 2. ⊓ ⊔ ⊓ ⊔

2.18 Proposition (Betragseigenschaften) F¨ ur x, y ∈ C gilt

22

KAPITEL 2. ZAHLEN

(i) |x| = |x| > 0 f¨ ur x 6= 0, (ii) ± Re x ≤ |x|, ± Im x ≤ |x|, (iii) |xy| = |x||y|, (iv) |x/y| = |x|/|y| falls y 6= 0, (v) | x ± y |≤ |x| + |y|, (Dreiecksungleichung) (vi) | x ± y |≥ |x| − |y|. (Dreiecksungleichung) x+y Imx

− |x

x

|x

+

y|

y|

y

Rex

Beweis. ¨ (i), (ii), (iv) als Ubungsaufgabe. xy¯ = x¯ xy y¯ = |x|2 |y|2 = (|x||y|)2 folgt (|xy| − |x||y|)(|xy| + (iii) Aus |xy|2 = xy · xy = xy¯ |x||y|) = 0. F¨ ur xy 6= 0 ist der zweite Faktor positiv, also |xy| − |x||y| = 0, also |xy| = |x||y|. F¨ ur xy = 0 ist x = 0 oder y = 0, also |xy| = 0 = |x||y|. (v) Es ist | x ± y |2 = (x ± y)(¯ x ± y¯) = x¯ x ± x¯ y ± x¯y + y y¯.

Nun ist x¯ y + x¯y = x¯ y +x¯ y = 2Re(x¯ y ), also ±x¯ y ± x¯y = ±2Re(x¯ y ) ≤ 2|x¯ y | = 2|x¯ y | = 2|x||y|, und daher | x ± y |2 = |x|2 ± 2Re(x¯ y ) + |y|2 ≤ |x|2 + 2|x||y| + |y|2 = (|x| + |y|)2 . Also ist | x ± y |2 ≤ (|x| + |y|)2 , und nach Proposition 2.17(ii) folgt | x ± y |≤ |x| + |y|. (vi) Aus |x| = | (x ± y) ∓ y | ≤ | x ± y | + |y| folgt die Behauptung durch Subtraktion von |y|. ⊓ ⊔ ⊓ ⊔ F¨ ur reelle Mengen machen einseitige Schranken Sinn:

23 2.19 Definition (i) Eine Teilmenge M von R heißt nach oben (bzw. nach unten) beschr¨ ankt, falls es eine Zahl s ∈ R mit der Eigenschaft x ≤ s (bzw. x ≥ s) f¨ ur alle x ∈ M

(6)

gibt; jede solche Zahl heißt eine obere (bzw. untere) Schranke von M . (ii) Eine kleinste obere Schranke von M , d.h. eine obere Schranke s′ mit der Eigenschaft s′ ≤ s f¨ ur jede obere Schranke s von M

(7)

heißt Supremum von M . Eine gr¨ oßte untere Schranke von M , d.h. eine untere Schranke s′′ mit der Eigenschaft s′′ ≥ s f¨ ur jede untere Schranke s von M

(8)

heißt Infimum von M .

untere Schranke

Infimum

Supremum

obere Schranke

——————————————————————————————————> R s′′

M

s′

2.20 Satz (i) Jede beschr¨ankte nichtleere Teilmenge von R ist nach oben und unten beschr¨ankt. (ii) Jede nach oben beschr¨ankte nichtleere Teilmenge M von R hat ein eindeutiges Supremum s′ =: sup M. (iii) Jede nach unten beschr¨ankte nichtleere Teilmenge M von R hat ein eindeutiges Infimum s′′ =: inf M. Beweis. (i) M ⊆ R sei beschr¨ankt, s sei Schranke von M . F¨ ur x ∈ M gilt dann ±x ≤ |x| ≤ s, also ist s obere Schranke und −s untere Schranke von M . (ii) Nach Voraussetzung gibt es eine Zahl m ∈ M und eine obere Schranke s ∈ R. Die Menge {x − m | x ∈ M, x ≥ m} besteht aus nichtnegativen Zahlen ≤ s − m, ist also beschr¨ankt, und hat nach (B3) ein Supremum s∗ ≥ 0. Nach Definition des Supremums ist s∗ ≤ s − m und x − m ≤ s∗ f¨ ur alle x ∈ M mit x ≥ m. F¨ ur x ∈ M ist also x ≤ m + s∗ falls x ≥ m, und x ≤ m ≤ m + s∗ falls x < m, also ist s′ := s∗ + m eine obere Schranke von M , und es ist s′ ≤ s. Da s eine beliebige obere Schranke von M war, ist s′ eine kleinste obere Schranke, also ein Supremum. F¨ ur weiteres Supremum s˜ g¨alte s′ ≤ s˜ (nach (7)) und s˜ ≤ s′ ((7) f¨ ur s˜ ′ ′ statt s ), also s˜ = s , d.h. das Supremum ist eindeutig bestimmt.

24

KAPITEL 2. ZAHLEN

(iii) analog. ⊓ ⊔ ⊓ ⊔

2.21 Konvention M sei Teilmenge von R. (i) Wir schreiben sup M = −∞ sup M = +∞ inf M = −∞ inf M = +∞

falls falls falls falls

M = ∅, M nicht nach oben beschr¨ankt ist, M nicht nach unten beschr¨ankt ist, und M = ∅.

sup M < ∞ ist eine Abk¨ urzung f¨ ur”M ist nach oben beschr¨ankt”. (ii) Wir schreiben sup ϕ(x) f¨ ur x∈M

sup{ϕ(x) | x ∈ M },

analog f¨ ur inf, max, min und f¨ ur andere Eigenschaften statt x ∈ M . Wichtig: Die Symbole −∞ (”minus unendlich”) und +∞ (”plus unendlich”) sind keine Zahlen, sondern Abk¨ urzungen, die ihre Bedeutung aus dem Kontext erhalten. Die wichtigsten Teilmengen von R sind die Intervalle. 2.22 Definition Ein Intervall ist eine nichtleere Menge I reeller Zahlen mit der Eigenschaft x, z ∈ I, x ≤ y ≤ z ⇒ y ∈ I. Ein Intervall heißt echt, wenn es mehr als eine Zahl enth¨alt. 2.23 Satz (i) Jedes echte beschr¨ankte Intervall hat eine der Formen [a, b] [a, b[ ]a, b] ]a, b]

:= := := :=

{x ∈ R {x ∈ R {x ∈ R {x ∈ R

| | | |

a ≤ x ≤ b}, a ≤ x < b}, a < x ≤ b}, a < x < b},

mit reellen Grenzen a, b mit a < b.

(abgeschlossenes Intervall) (halboffenes Intervall) (halboffenes Intervall) (offenes Intervall)

(9)

25 (ii) Jedes nicht beschr¨ankte Intervall hat eine der Formen [a, ∞[ ]a, ∞[ ] − ∞, b] ] − ∞, b[ ] − ∞, ∞[

:= := := := :=

{x ∈ R {x ∈ R {x ∈ R {x ∈ R R.

| | | |

a ≤ x} a < x} x ≤ b} x < b}

( ( ( (

f¨ ur f¨ ur f¨ ur f¨ ur

a ∈ R), a ∈ R), b ∈ R), b ∈ R),

(iii) Umgekehrt sind diese Mengen Intervalle . Beweis. (i) I sei ein beschr¨anktes Intervall und a := inf I, b := sup I. Wegen a ≤ x f¨ ur alle x ∈ I und x ≤ b f¨ ur alle x ∈ I ist dann I ⊆ [a, b]. Ist a < y < b, so kann y keine untere Schranke von I sein, also gibt es ein x ∈ I mit x ≤ y. Aber y kann auch keine obere Schranke von I sein, also gibt es ein z ∈ I mit y ≤ z. Mit (9) folgt y ∈ I. Daher ist ]a, b[⊆ I. Je nachdem, ob die Randpunkte a und b zu I geh¨oren oder nicht, erh¨alt man einen der 4 F¨alle. (ii) folgt analog, (iii) aus der Transitivit¨at der Ordnungsrelationen. ⊓ ⊔ ⊓ ⊔

2.24 Bemerkung. Ein unechtes Intervall enth¨allt genau eine Zahl a, hat also die Form [a, a]. Alternative Bezeichnung: (a, b) =]a, b[, [a, b) = [a, b[, usw. 2.25 Definition Eine zu M ⊆ R geh¨orige obere (untere) Schranke heißt Maximum (Minimum) von M . 2.26 Satz (i) Hat M ⊆ R ein Maximum s′ , so ist s′ = sup M ; insbesondere ist das Maximum, wenn es existiert, eindeutig. Man schreibt in diesem Fall s′ =: max M . (ii) Hat M ⊆ R ein Minimum s′′ , so ist s′′ = inf M ; insbesondere ist das Minimum, wenn es existiert, eindeutig. Man schreibt in diesem Fall s′′ =: min M . Beweis. als u ¨bungsaufgabe. ⊓ ⊔

⊓ ⊔

2.27 Bemerkung. Nicht jede beschr¨ankte Menge hat ein Maximum oder ein Minimum. (Man betrachte etwa ein offenes Intervall.)

26

KAPITEL 2. ZAHLEN

2.28 Definition Eine Zahl, die in jeder Teilmenge M von C mit den Eigenschaften (N1)

1 ∈ M,

(N2)

m ∈ M =⇒ m + 1 ∈ M

enthalten ist, heißt natu urlichen Zahlen wird mit N be¨ rliche Zahl. Die Menge der nat¨ zeichnet, und man schreibt N0 := N ∪ {0}. Die Zahlen der Menge Z := −N ∪ {0} ∪ N heißen ganz (auch ganzzahlig), die Zahlen der Menge Q := {m/n | m ∈ Z, n ∈ N} heißen rational; die u ¨ brigen reellen Zahlen heißen irrational. 2.29 Konvention Ganze Zahlen werden vorzugsweise mit den Buchstaben i, j, k, l, m, n, p, q bezeichnet; mit i nur, wenn im Kontext keine komplexen Zahlen vorkommen. Wir zeigen nun, daß die Definition mit dem naiven Umgang mit ganzen Zahlen vertr¨aglich ist. Hilfssatz (i) 1 ∈ N. (ii) n ∈ N =⇒ n + 1 ∈ N. (iii) −Z = Z. (iv) k ∈ Z =⇒ k ± 1 ∈ Z. Beweis. (i) folgt wegen (N1) unmittelbar aus der Definition von N. (ii) Sei M eine beliebige Teilmenge von R mit den Eigenschaften (N1) und (N2). Ist n ∈ N, so gilt n ∈ M nach Definition von N, nach (N2) also n + 1 ∈ M . Da M beliebig war, ist n + 1 eine nat¨ urliche Zahl. (iii) folgt unmittelbar aus der Definition von Z. (iv) Sei k ∈ Z. Nach Definition von Z liegt einer der F¨alle (a) k ∈ −N, (b) k = 0, (c) k ∈ N vor. Fall (a). Hier ist −k ∈ −N, also −k + 1 ∈ N ⊆ Z nach (ii), und k − 1 = −(−k + 1) ∈ Z nach (iii). Fall (b). Hier ist k − 1 = −1 ∈ Z nach (i) und (iii).

27 Fall (c). F¨ ur k = 1 ist k − 1 = 0 ∈ Z; wir k¨onnen also k > 1 annehmen. Die Menge M := N\{k} enth¨alt dann die 1, aber nicht die nat¨ urliche Zahl k, also muß nach Definition 2.28 die Bedingung (N2) verletzt sein. Es gibt also ein m ∈ M mit m + 1 6∈ M . Da m und daher m + 1 eine nat¨ urliche Zahl ist, muß m + 1 = k sein, d.h. k − 1 = m ∈ N ⊆ Z. Also ist in allen F¨allen k − 1 ∈ Z. Mit −k statt k folgt −k − 1 ∈ Z und daher auch k + 1 = −(−k − 1) ∈ Z. ⊓ ⊓ ⊔ ⊔

2.30 Satz Es gilt j, k ∈ Z =⇒ j ± k, jk ∈ Z. Insbesondere ist die Menge Z der ganzen Zahlen ein Ring. Beweis. (i) Sei j ∈ Z. Wir setzen M := {k ∈ N | j ± k ∈ Z}. Wegen Hilfssatz 2(iv) ist 1 ∈ M . Ist k ∈ M , so ist k ∈ N, j ± k ∈ Z nach Definition von M , also j ± (k + 1) = (j ± k) ± 1 ∈ Z nach Hilfssatz 2(iv). Nach Hilfssatz 2(ii) ist auch k + 1 ∈ N, also k + 1 ∈ M . Daher gelten (N1) und (N2) f¨ ur M . Nach Definition 2.28 enth¨alt M also alle nat¨ urlichen Zahlen, d.h. es ist j ± k ∈ Z f¨ ur alle j ∈ Z, k ∈ N. Wegen j ± 0 = j und j ± (−k) = j ∓ k ist auch j ± k ∈ Z f¨ ur alle j, k ∈ Z. (ii) Sei j ∈ Z. Wir setzen M := {k ∈ N | ± jk ∈ Z}. Offensichtlich ist 1 ∈ M . Ist k ∈ M beliebig, so ist k ∈ N, ± jk ∈ Z nach Definition von M , also ±j(k + 1) = ±jk ± j ∈ Z nach dem eben Bewiesenen. Also ist k + 1 ∈ M . Daher gelten (N1) und (N2) und wie zuvor schließt man auf ±jk ∈ Z f¨ ur alle j ∈ Z, k ∈ N. Wegen j · 0 = 0 und j(±k) = ±jk folgt nun jk ∈ Z f¨ ur alle j, k ∈ Z. ⊓ ⊔ ⊓ ⊔

2.31 Definition F¨ ur m, n ∈ Z definieren wir die ganzzahligen Intervalle {m, . . . , n} := {k ∈ Z|m ≤ k ≤ n}, {m, m − 1, . . . , n} := {k ∈ Z|m ≥ k ≥ n}, {m, m + 1, . . .} := {k ∈ Z|m ≤ k}, {m, m − 1, . . .} := {k ∈ Z|m ≥ k}, und schreiben abk¨ urzend k = m, . . . , n : ⇔ k ∈ {m, . . . , n}, k = m, m − 1, . . . , n : ⇔ k ∈ {m, m − 1, . . . , n}, k = m, m ± 1, . . . : ⇔ k ∈ {m, m ± 1, . . .},

28

KAPITEL 2. ZAHLEN

sowie

Beachte [m : n] = ∅ falls m > n.

[m : n] := {m, . . . , n}, [n] := {1, . . . , n}.

2.32 Proposition (i) N = {k ∈ Z | k ≥ 1}. (ii) k, l ∈ Z, k 6= l =⇒ |k − l| ≥ 1. (iii) F:¨ ur k ∈ Z ist {k, k + 1, . . .} = k − 1 + N. Beweis. (i) Die Menge M := {k ∈ Z | k ≥ 1} erf¨ ullt nach Hilfssatz 2(i,ii) (N1) und (N2), enth¨alt also alle nat¨ urlichen Zahlen. Offensichtlich ist 0 6∈ M . Ist k ∈ −N, so ist −k ∈ N, also −k ≥ 1 > 0 > −1, also −k > −1, k < 1, also k 6∈ M . Daher enth¨alt M keine anderen ganzen Zahlen, d.h. es ist M = N. (ii) Nach Satz 2.30 ist 0 < |k − l| = ±(k − l) ∈ Z, also |k − l| ∈ N und daher |k − l| ≥ 1 nach (i). def

2.30

(i)

(iii) n ∈ {k, k + 1, . . .} ⇐⇒ n ∈ Z, n ≥ k ⇐⇒ n − k + 1 ∈ Z, n − k + 1 ≥ 1 ⇐⇒ n − k + 1 ∈ N ⇐⇒ n ∈ k − 1 + N. ⊓ ⊔ ⊓ ⊔

2.33 Satz (i) Z ist nach oben und unten unbeschr¨ankt; N ist nach oben unbeschr¨ankt. (ii) Jede nach oben (unten) beschr¨ankte, nichtleere Teilmenge von Z hat ein Maximum (Minimum). Beweis. (i) Angenommen, N w¨are nach oben beschr¨ankt und s := sup N. Wegen s − 1 < s ist s − 1 keine obere Schranke f¨ ur N, also gibt es ein k ∈ N mit k > s − 1. Dann ist aber k + 1 > s und k + 1 ∈ N im Widerspruch zur Definition von s. Also ist N nach oben unbeschr¨ankt. Nach Definition von Z folgt nun, daß Z nach oben und nach unten unbeschr¨ankt ist. (ii) M sei eine nach oben beschr¨ankte nichtleere Teilmenge von Z und s := sup M . Wie vorher gibt es ein k ∈ M mit k > s − 1, und nach Definition von s ist k ≤ s. W¨are s > k, so g¨abe es nach Definition des Supremums ein j ∈ M mit j > k und es w¨are j ≤ s, also 0 < j − k < s − (s − 1) = 1 im Widerspruch zu Proposition 2.32(ii). Also ist s = k ∈ Z, also s = max M . Der nach unten beschr¨ankte Fall wird analog gezeigt. ⊓ ⊔

29 ⊓ ⊔

2.34 Proposition Die Dezimalziffern 0, 1 = 0 + 1, 2 = 1 + 1, 3 := 2 + 1, 4 := 3 + 1, 5 := 4 + 1, 6 := 5 + 1, 7 := 6 + 1, 8 := 7 + 1, 9 := 8 + 1 sind ganze Zahlen, und mit 10 := 9 + 1 gilt {k ∈ Z | 0 ≤ k < 10} = {0, . . . , 9} = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. ¨ Beweis. als Ubung. ⊓ ⊔

⊓ ⊔

Der Leser u ¨berzeuge sich außerdem, daß die als sprichw¨ortliches Symbol der Wahrheit geltende Aussage 2 + 2 = 4 richtig ist. In Zukunft werden wir die aus der Schule gewohnten Zahldarstellungen und Rechenverfahren f¨ ur ganze, rationale und reelle Zahlen als bekannt voraussetzen. In den Beweisen zu Satz 2.30 und Proposition 2.32 wurde mehrmals derselbe Trick benutzt, um aus (N1) und (N2) zu folgern, daß eine Menge M alle nat¨ urlichen Zahlen enth¨alt. Dieser Trick l¨auft unter dem Namen vollst¨andige Induktion, und l¨aßt sich etwas allgemeiner so formulieren: 2.35 Satz (Induktionsprinzip) Es sei k ∈ Z, und A(n) sei eine von einem ganzzahligen Parameter n abh¨angige Aussage mit der Eigenschaft (IA) A(k) gilt. (IS) A(n) =⇒ A(n + 1) f¨ ur n = k, k + 1, · · ·. Dann gilt A(n) f¨ ur n = k, k + 1, · · ·. Beweis. Wir schreiben M f¨ ur die Menge aller m ∈ N, f¨ ur die A(k − 1 + m) gilt. Wegen (IA) ist 1 ∈ M . Ist m ∈ M beliebig, so ist m ∈ N, also m ≥ 1. Daher ist n := k − 1 + m ≥ k und A(n) gilt nach Definition von M . Wegen (IS) gilt A(n+1), und wegen n+1 = k −1+(m+1) folgt m + 1 ∈ M . Daher gelten (N1) und (N2) f¨ ur M , und nach Definition 2.28 enth¨alt M alle nat¨ urlichen Zahlen. Also gilt A(n) f¨ ur alle n = k − 1 + m ∈ k − 1 + N, nach Proposition 2.32 also f¨ ur n = k, k + 1, · · · . ⊓ ⊓ ⊔ ⊔

2.36 Bemerkung. Ein nach dem Induktionsprinzip gef¨ uhrter Beweis heißt Induktionsbeweis. (IA) nennt man Induktionsanfang, (IS) den Induktionsschluß. Der Induktionsschluß erfordert nicht, daß man schon weiß, daß A(n) gilt, sondern nur, daß n eine solche Zahl ist, f¨ ur die A(n) gilt. Was f¨ ur ein n das ist, braucht nicht bekannt zu sein. Die Annahme ”A(n) gilt”, d.h. die Voraussetzung in (IS), nennt man die Induktionsannahme (oder -voraussetzung).

30

KAPITEL 2. ZAHLEN

Man beachte, daß man (IS) auch als (IS) A(n − 1) =⇒ A(n) f¨ ur alle ganzen n > k formulieren kann. In dieser Version formuliert man einen Induktionsbeweis f¨ ur die Aussage ”A(n) gilt f¨ ur n = k, k + 1, · · ·” so:

”Die Behauptung gilt f¨ ur n = k, da . . . [Begr¨ undung]. Angenommen, die Behauptung gilt f¨ ur n − 1 anstelle von n (n > k ganz). Dann . . . [Argumentation]. Also gilt die Behauptung auch f¨ ur n, und daher f¨ ur alle n = k, k + 1, . . .”.

Induktionsbeweise werden h¨aufig gef¨ uhrt, und geh¨oren zu den grundlegenden Schlußweisen der Analysis. Das Wesentliche daran ist, daß man unendlich viele Aussagen mit einer begrenzten Zahl von Argumenten als richtig nachweisen kann. Die M¨oglichkeit, einwandfrei mit ”unendlichen” oder ”beliebig vielen” Sachverhalten umzugehen, ist einer der wesentlichen historischen Gr¨ unden daf¨ ur, daß die Analysis (und die gesamte Mathematik) heute axiomatisch aufgebaut ist.

Kapitel 3 Vektoren und der physikalische Raum W¨ahrend man in der Schule unter Vektoren haupts¨achlich als Spalten geschriebene Paare oder Tripel reeller Zahlen versteht, und sie oft als Pfeile interpretiert, ist der mathematische Begriff des Vektors wesentlich allgemeiner: er umfaßt auch l¨angere Listen von Zahlen, aber z.B. auch reellwertige Funktionen. Das Gemeinsame dabei ist nicht die Darstellung oder Bedeutung, sondern daß man mit den Objekten, die den Namen ”Vektor” verdienen, auf eine einheitliche Art rechnen kann. Wie wir schon Paare und Tripel mit Abbildungen von D = {1, 2} bzw. D = {1, 2, 3} in eine Menge identifiziert haben, werden wir auch l¨angere Listen mit solchen Abbildungen identifizieren. Der Definitionsbereich D besteht dabei aus Namen f¨ ur die einzelnen Pl¨atze in der Liste. Im wichtigsten Spezialfall sind die Listenpl¨atze einfach mit 1, . . . , n numeriert, dann ist D = {1, . . . , n} und wir schreiben wieder kurz M n statt M {1,...,n} . Im Unterschied zu Folgen, die wir uns zeitlich nacheinander angeordnet vorstellen, denken wir uns Listen als r¨aumlich untereinander angeordnet. Listen x ∈ M n schreiben wir daher als Spaltenvektoren   x1  .  x =  ..  ; xn

xj = x(j) heißt die jte Komponente von x.

Damit man mit Abbildungen rechnen kann, ist es sinnvoll, den Zielbereich als K¨orper K zu w¨ahlen. Elemente von K D sind also die Abbildungen von D mit Werten in K. 3.1 Definition F¨ ur ϕ, ψ ∈ K D und α ∈ K definieren wir Summe ϕ+ψ ∈ K D , Differenz ϕ − ψ ∈ K D , α-Faches αϕ ∈ K D und Null 0 ∈ K D ”punktweise” durch (ϕ ± ψ)(x) := ϕ(x) ± ψ(x) f¨ ur x ∈ D,

(1)

(αϕ)(x) := αϕ(x) f¨ ur x ∈ D,

(2)

0(x) := 0 f¨ ur x ∈ D.

(3)

Statt αϕ schreibt man manchmal auch α · ϕ. 31

32

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

3.2 Bemerkung. Wir werden Abbildungen ∈ K D oft auch mit x, y, usw. bezeichnen, die Elemente im Definitionsbereich dann z.B. mit s oder t. Wir h¨atten die Definition also ebensogut so schreiben k¨onnen: F¨ ur x, y ∈ K D und α ∈ K definieren wir Summe x + y ∈ K D , Differenz x − y ∈ K D und α-Faches αx = xα ∈ K D und Null 0 ∈ K D durch (x ± y)(t) := x(t) ± y(t) (αx)(t) := αx(t) 0(t) := 0

f¨ ur t ∈ D, f¨ ur t ∈ D. f¨ ur t ∈ D.

Man muß sich daran gew¨ohnen, die Bedeutung nicht in der Bezeichnung zu sehen, sondern in den vorhandenen Beziehungen. Die Bezeichnung ist an sich willk¨ urlich, wird nat¨ urlich m¨oglichst suggestiv gew¨ahlt. Im Spezialfall D = {1, . . . , n} sind die Elemente von D ganze Zahlen, die wir vor allem mit j, k, l bezeichnen. F¨ ur das jte Element einer Liste x ∈ K n schreiben wir dann xj statt x(j), so daß die Definition die Regeln (x ± y)j = xj ± yj , (αx)j = αxj , 0j = 0 ergibt. Man sieht, daß alles ”komponentenweise”        2 1 3         3  +  0  =  3 ,  4 −2 2 

   2 10     5  3  =  15  , 4 20



geht. Es ist also z.B.      2 1 1      3  −  0  =  3 , 4 −2 6

   2 0     0  3  =  0  = 0. 4 0

(”Man sieht”: Die Mathematik spielt sich vor allem in der platonischen Welt der Ideen ab; ¨ es ist wichtig und der Zweck aller Ubungsaufgaben, in dieser Welt sehen zu lernen, so daß man sich da zurechtfinden kann. Je besser man in der platonischen Welt sehen – und beim Finden von Argumenten handeln – lernt, umso wirksamer kann man die Werkzeuge nutzen, die die Mathematik zur Vef¨ ugung stellt.) 3.3 Proposition F¨ ur x, y, z ∈ K D und α, β ∈ K gilt: (VR1) (x + y) + z = x + (y + z), (VR2) (x + y) − y = (x − y) + y = x, (VR3) 0 + x = x + 0 = x, (VR4) (α + β)x = αx + βx, (VR5) α(x + y) = αx + αy, (VR6) (αβ)x = α(βx), (VR7) 1x = x.

33 Beweis. Alles folgt sofort aus den entsprechenden Regeln f¨ ur Ringe durch Vergleich der Werte an einer beliebigen Stelle t ∈ D. Zum Beispiel ist (α(x + y))(t) = α((x + y)(t)) = α(x(t) + y(t)) = αx(t) + αy(t) = (αx)(t) + (αy)(t) = (αx + αy)(t) f¨ ur alle t ∈ D. (Benutzt wurde (2), (1), das Distributivgesetz in K, wieder (2) und zum Schluß nochmal (1).) Also gilt (VR5). ⊓ ⊔ Die Eigenschaften (VR1)–(VR7) sind charakteristisch f¨ ur viele andere Objekte an Stelle D von K . Wir f¨ uhren daher einen Namen daf¨ ur ein. 3.4 Definition K sei K¨orper. Ein K-Vektorraum ist eine Menge V , in der Summe, Differenz, α-Faches und Null so erkl¨art, daß f¨ ur x, y, z ∈ V und α, β ∈ K die Axiome (VR1)-(VR7) gelten. Ist K aus dem Kontext bekannt, so sagen wir auch einfach, V ist ein Vektorraum. Die Elemente eines Vektorraums nennen wir Punkte oder Vektoren. Man setzt wie in Ringen +x := x, −x := 0 − x. Mit dem neuen Begriff ausgedr¨ uckt, haben wir also in der Proposition gerade bewiesen, daß f¨ ur jede Menge D die Menge K D der Abbildungen von D mit Werten in K und punktweise Operationen ein K-Vektorraum ist. F¨ ur D = {1, . . . , n} ergibt sich insbesondere, daß die Menge K n aller Spaltenvektoren der L¨ange n mit Komponenten in K und komponentenweise Operationen ein K-Vektorraum ist. Der Fall n = 0 ist ein degenerierter, aber wichtiger Extremfall und liefert den trivialen Vektorraum V = K 0 := {0}, der nur aus der Null besteht. 3.5 Proposition In jedem Vektorraum V gelten die Regeln (1.1)–(1.15); insbesondere ist die Addition kommutativ. Außerdem gilt die K¨ urzungsregel αx = 0 ⇒ α = 0 oder x = 0.

(4)

¨ Beweis. Die Beweise von Proposition 1.7 und Satz 1.9(iii) lassen sich ohne Anderung u ⊓ ⊔ ¨bertragen. Die Namen ”Vektorraum” und ”Punkte” weisen schon darauf hin, daß außer der formelm¨aßigen algebraischen Definition und der Listeninterpretation eine geometrische Interpretation dieser Begriffe beabsichtigt ist. Geometrisch stellt man sich beliebige Vektorr¨aume als Verallgemeinerung des physikalischen Raums oder von Ebenen im Raum vor. Der physikalische Raum wird dabei durch den R3 modelliert und eine feste physikalische Ebene durch den R2 ; der zugeh¨orige K¨orper ist hier nat¨ urlich K = R. Es wird sich zeigen, daß die meisten im R2 3 und R sinnvollen Begriffe sich problemlos auf beliebige Vektorr¨aume u ¨bertragen lassen. Physiker denken sich Vektoren oft als Pfeile im Raum, wobei allerdings irritierend wirkt, daß gleichlange, parallele Pfeile denselben Vektor darstellen sollen. Diese Irritation kann man vermeiden, wenn man den zu einem Vektor geh¨origen Pfeilen dynamische Bedeutung gibt,

34

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

n¨amlich als Abbildung, die jedem Pfeilende seine Spitze zuordnet. Man sieht sofort, was diese Abbildung geometrisch ist, n¨amlich einfach eine Translation (Parallelverschiebung) im Raum. Wir k¨onnen also Pfeile im Raum durch den Begriff der Translation pr¨azisieren. Der zu einem Punkt x (=Vektor im Sinn unserer Definition) geh¨orige Ortsvektor ist die Translation Tx , die den Nullpunkt 0 auf x abbildet. x+v =y Tv .........................................................................................................•..... ......................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x....•........................................ ... .. ......... ..... ......... .... .............. ..... ......... ..... ......... ..... .. ..... ......... ..... .... ......... . . . ..... . . . . . . . . . . . . . .. .... ......... ..... ..... x ......... ..... ..... ......... ..... ......... x.............. ..... ........ . . . . . . . . . . . . . . x+v ....... ..... ... . . . . . . . . . . . . ... ........ ..... ...... ...... .... ......... ..... ................. ............................... ..... .......................... .. ......................... . ..................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... ..... ................... ................................

T

• 0

T

T

Tv

•v

Das Kr¨afteparallelogramm zeigt nun, daß die Translation Tv einen beliebigen Punkt x gerade auf x + v abbildet, also ist Tv (x) = x + v. (5) Die Translation Tv , die einen Punkt x in einen anderen Punkt y u uhrt, ist wegen ¨berf¨ y = x + v gerade der Pfeil xy ~ := Ty−x . Die Strecke xy zwischen zwei Punkten x und y erh¨alt man offenbar, wenn man x um beliebige Bruchteile λ ∈ [0, 1] des Vektors y − x verschiebt, also ist xy = {x + λ(y − x) | 0 ≤ λ ≤ 1}. (6) Und die Gerade Gxy , die x und y verbindet, erh¨alt man, wenn man Verschiebungen um s¨amtliche positiven und negativen Vielfache λ(y − x) erlaubt: Gxy = {x + λ(y − x) | λ ∈ K} = {(1 − λ)x + λy | λ ∈ K} = {αx + βy | α, β ∈ K, α + β = 1}.

(7)

Ebenso erh¨alt man eine Ebene durch drei Punkte x, y, z (mit z 6∈ Gxy ), indem man die Gerade Gxy um beliebige Vielfache von z − x verschiebt, Exyz = {x + λ(y − x) + µ(z − x) | λ, µ ∈ K} = {(1 − λ − µ)x + λy + µz | λ, µ ∈ K} = {αx + βy + γz | α, β, γ ∈ K, α + β + γ = 1}.

(8)

(5), (7) und (8) lassen sich offensichtlich in jedem K-Vektorraum interpretieren; damit die Strecke (6) Sinn macht, m¨ ussen die Ungleichungen Sinn machen; in der Terminologie des n¨achsten Kapitels bedeutet das, da¨s man dann zus¨atzlich voraussetzen mu¨s, daß K ein Zahlk¨orper ist. (Solche Sinn¨ uberlegungen geh¨oren zum elementaren Repertoire des Mathematikers. Man muss sich jederzeit Rechenschaft dar¨ uber abgeben k¨onnen, was Sinn macht und warum; dies einzu¨ uben ist eine wichtige Aufgabe der Grundvorlesungen.) 3.6 Definition V sei K-Vektorraum, (i) Die durch (5) definierte Abbildung Tv : V → V heißt Translation um v ∈ V . Zwei Mengen M, M ′ heißen parallel, falls es eine Translation gibt, die M auf M ′ abbildet.

35 (ii) F¨ ur x, y ∈ V, x 6= y heißt die durch (7) definierte Menge Gxy die Gerade durch x und y. (F¨ ur x = y ist Gxy = {x} definiert, aber keine Gerade.) Ist K ein Zahlk¨orper, so heißt (6) die Strecke zwischen x und y. (iii) F¨ ur x, y, z ∈ V mit y 6= x, z ∈ / Gxy heißt die durch (8) definierte Menge Exyz die Ebene durch x, y und z. (iv) Eine nichtleere Menge M ⊆ V mit der Eigenschaft (A) x, y ∈ M ⇒ Gxy ⊆ M heißt affin.

 Im Vektorraum K 2 ist die Ebene durch die Punkte 0, 1x = 10 und 1y = Raum, E01x 1y = K 2 . Wir nennen K 2 die Standardebene u ¨ber K.

0 1



der ganze

Denkt man geometrisch, so ist es sinnvoll, eine einpunktige Menge {x} mit dem Punkt x zu identifizieren. 3.7 Satz (i) F¨ ur jede Translation ϕ = Tv gilt ϕ(αx + βy) = αϕ(x) + βϕ(y) falls α + β = 1.

(9)

(ii) Punkte, Geraden, Ebenen und der ganze Raum sind affin. (iii) Bei einer Translation ist das Bild jeder affinen Menge affin. (iv) Ist M eine affine Menge und x, y ∈ M , so ist Ty−x (M ) = M . (Man sagt, M ist invariant unter allen Translationen Ty−x mit x, y ∈ M.) Beweis. (i) Es ist Tv (αx + βy) = αx + βy + v = αx + βy + (α + β)v = α(x + v) + β(y + v) = αTv (x) + βTv (y). (ii) Sei x, y ∈ M . Ist M = {z} ein Punkt, so folgt x = y = z, also Gxy = {z} = M. Ist M = Guv , so ist x = u + α(v − u), y = u + β(v − u), und x + λ(y − x) = x + λ(β − α)(v − u) = u + (α + λ(β − α))(v − u) ∈ Guv , also Gxy ⊆ Guv . Der Fall einer Ebene geht genauso.

(iii) M sei affin. Das Bild M ′ = Tv (M ) = M + v ist affin, falls aus x′ , y ′ ∈ M ′ stets Gx′ y′ ∈ M ′ folgt. Nun ist x′ = x + v, y ′ = y + v mit x, y ∈ M, also x′ + λ(y ′ − x′ ) = x + v + λ(y + v − x − v) = x + λ(y − x) + v ∈ M + v = M ′ , da x + λ(y − x) ∈ Gxy ⊆ M . Also ist x′ + λ(y ′ − x′ ) ∈ M ′ f¨ ur alle λ, und es folgt Gx′ y′ ∈ M ′ . Um zu sehen, wie man (iv) beweist, ist es sinnvoll, sich zuerst ein entsprechendes Parallelogramm aufzumalen (s. Zeichnung) und den Diagonalschnittpunkt w zu betrachten. Das liefert den entscheidenden Trick f¨ ur den formalen Beweis. y •

.... ............................................... ............. ..... .. .. ............. ..... . ..... ............. ..... . ... . ............. . . ............. ... .... . . . . ............. ... .... . ............. . . . ... ............. ... . . . . . .......... . y−x........ ... . ..................... ... .... . ..................... ................. . . . . . . . . . . . . . . ... ............. . . .. . . .... . . . . . . . . . . . . . . . . . . . . . . . . . . ... .... ................ ..... ..... .................... ..... ..... ..................... ..... ..... ..... ..................... . . . . ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . ... .. ... ................................ ..... ... ..... ..... .................................. ... ..... ............. ... ..... ............. ... ..... . ............. . . . . y−x ... ............. ..... ............. ... ..... ............. ... ..... ............. ... ..... . ............. . . . .. . ............. .......................... .....

T

x•

•w

w

T

•z

36

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

(iv) Ist z ∈ M , so ist wegen 12 + 21 = 1 der Punkt w := 12 z + 12 y ∈ Gzy ⊆ M , also wegen 2 − 1 = 1 auch Ty−x (z) = z + (y − x) = 2w − x ∈ Gxw ⊆ M . Daher ist Ty−x (M ) ⊆ M . Ist umgekehrt z ′ ∈ M , so ist z ′ = Ty−x (z) f¨ ur z = z ′ + x − y ∈ Tx−y (M ), also M ⊆ Ty−x (M ). Daher ist Ty−x (M ) = M. ⊓ ⊔ In einem Vektorraum sind die interessantesten Abbildungen die affinen Abbildungen. 3.8 Definition V, W seien K-Vektorr¨aume. (i) Eine Abbildung ϕ : V → W heißt affin, wenn (9) f¨ ur alle x, y ∈ V gilt. (ii) Eine Abbildung A : V → W heißt linear, falls (L) A(αx + βy) = αAx + βAy f¨ ur alle x, y ∈ V und α, β ∈ K.

Lineare Abbildungen werden fast immer in Operatorschreibweise geschrieben. Offensichtlich ist jede lineare Abbildung und jede Translation affin. Aus der Definition des Vektorraums ergibt sich, daß auch die Streckungen A = αI(α 6= 0), die einen Vektor x auf das α-fache Ax = αI(x) = αx abbilden, linear sind. F¨ ur α = 0 ergibt sich statt einer Streckung die Nullabbildung, mit 0x = 0 f¨ ur alle x. 3.9 Satz (i) Eine affine Abbildung bildet eine Gerade auf eine Gerade oder auf einen Punkt ab. (ii) Ist A : V → W linear und b ∈ W , so ist die durch ϕ(x) := Ax + b

(10)

definierte Abbildung ϕ : V → W affin.

(iii) Jede affine Abbildung ϕ : V → W ist von der Form (10) mit einer linearen Abbildung A : V → W , d.h. es ist ϕ = Tb ◦ A. (iv) Eine Abbildung A : V → W ist genau dann linear wenn sie affin ist und A0 = 0 gilt.

Beweis. (i) ϕ : V → W sei affin. Das Bild der Geraden Gxy (x, y ∈ V ) ist ϕ(Gxy ) = {ϕ(z) | z ∈ Gxy } = {ϕ(αx + βy) | α + β = 1} = {αϕ(x) + βϕ(y) | α + β = 1} = Gϕ(x)ϕ(y) . (ii) Ist α + β = 1, so ist ϕ(αx + βy) = A(αx + βy) + b = αAx + βAy + (α + β)b = α(Ax + b) + β(Ay + b) = αϕ(x) + βϕ(y).

(iii) Es ist ϕ(αx) = ϕ(αx + (1 − α)0) = αϕ(x) + (1 − α)ϕ(0). F¨ ur die durch Ax := ϕ(x) − ϕ(0)

(11)

definierte Abbildung A : V → W gilt also A(αx) = ϕ(αx) − ϕ(0) = αϕ(x) + (1 − α)ϕ(0) − ϕ(0) = α(ϕ(x) − ϕ(0)) = αAx. Wegen A(x + y) = 2A( 21 x + 12 y) = 2(ϕ( 21 x + 12 y) − ϕ(0)) = 2( 12 ϕ(x) + 12 ϕ(y) − ϕ(0)) = ϕ(x) + ϕ(y) − 2ϕ(0) = Ax + Ay ist also A(αx + βy) = A(αx) +

37 A(βy) = αAx + βAy. Schließlich ergibt sich aus (11) durch Addition von b = ϕ(0) die Gleichung (10). (iv) Jede lineare Abbildung A ist affin, und f¨ ur beliebiges x ∈ V findet man A0 = A(0x) = 0(Ax) = 0. Umgekehrt ist eine affine Abbildung ϕ mit ϕ(0) = 0 wegen (11) identisch mit einer linearen Abbildung. ⊓ ⊔ Die affinen Abbildungen (10) verallgemeinern die von der Schule her bekannten ”linearen Funktionen”, die x ∈ R auf y = mx + b abbilden (m, b ∈ R). Es muß allerdings betont werden, daß diese Abbildung im Sinn unserer Definition nur f¨ ur b = 0 linear ist. Dieser Unterschied ist mit ein Grund daf¨ ur, daß wir bisher sorgf¨altig zwischen Abbildungen und Funktionen unterschieden haben, da wir auch sp¨ater von beliebigen affinen Abbildungen als linearen Funktionen reden k¨onnen wollen (obwohl man streng genommen affine Funktionen sagen sollte), ohne Verwechslungen bef¨ urchten zu m¨ ussen. Da sich alle affinen Abbildungen in der Form (10) schreiben lassen, werden wir uns vor allem lineare Abbildungen genauer ansehen. Wegen Satz 2.9(iv) bilden alle lineare Abbildungen A : V → W den Ursprung von V auf den Ursprung von W ab. 3.10 Beispiele. (i) Die Menge C der komplexen Zahlen ist ein R-Vektorraum (warum?), und die Abbildungen Re, Im : C → R, die einer Zahl z ∈ C den Realteil Re z und den Imagin¨arteil Im z zuordnen, sind lineare Abbildungen. F¨ ur α, β ∈ R ist n¨amlich Re(αz + βw) = 21 (αz + βw + αz + βw) = 12 (αz + βw + αz + βw) = α · 12 (z + z) + β · 12 (w + w) = α Re z + β Re w, und ebenso folgt Im(αz + βw) = α Im z + β Im w. (ii) F¨ ur p, q, r, s ∈ K ist durch     x px + qy A := y rx + sy

(12)

eine Abbildung A : K 2 → K 2 definiert. Die Abbildung ist linear, denn es ist       ′  αx + α′ x′ x ′ x = A A α +α ′ ′ y y′   αy + α ′y ′ p(αx + α x ) + q(αy + α′ y ′ ) = ′ ′ ′ ′) r(αx + α x ) + ′s(αy′ + α ′y  α(px + qy) + α (px + qy ) = ′ (rx′ + sy ′ ) α(rx + sy)  +α  ′ ′ px + qy ′ px + qy +α = α ′ ′ rx +   sy  ′ rx + sy x x = αA + α′ A ′ . y y Die durch (12) definierte Abbildung h¨angt von den konkreten Werten ab, die p, q, r, s annehmen. Man schreibt daher   p q , A= r s

38

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

und nennt A eine 2 × 2-Matrix. Die Formel (12) wird damit zu      p q x px + qy = . r s y rx + sy

(13)

Die Vielfachen αI der Identit¨at lassen sich in der Form (12) mit p = s = α, q = r = 0 schreiben; es ist also   α 0 αI = . (14) 0 α    A = 10 α1 Insbesondere ist I = 10 01 und 0 = 00 00 . Man u ¨berzeuge sich, daß sich  geometrisch in der xy-Ebene als Scherung in x-Richtung, und A = α1 01 als Scherung in y-Richtung interpretieren l¨aßt, und A = −I als Punktspiegelung am Ursprung. 3.11 Satz (i) Die Menge L(V, W ) aller linearen Abbildungen von V nach W ist ein Vektorraum. (ii) Mit dem Nacheinanderausf¨ uhren als Produkt ist die Menge L(V ) = L(V, V ) der linearen Abbildungen von V 6= {0} in sich ein Ring. Beweis. (i) Die Axiome (VR1)–(VR7) gelten sogar f¨ ur beliebige Abbildungen von V nach W , wie man ebenso wie in Proposition 2.3 nachpr¨ uft. Es reicht also, zu zeigen, daß das Ergebnis aller Operationen mit linearen Abbildungen A, B ∈ L(V, W ) wieder zu L(V, W ) geh¨ort. Die f¨ ur einen Vektorraum geforderten Operationen sind nach Definition 2.4 Summe und Differenz A ± B und das α-Fache αA. Die Linearit¨at von A ± B folgt aber aus (A ± B)(αx + βy) = A(αx + βy) ± B(αx + βy) = αAx + βAy ± (αBx + βBy) = α(Ax ± Bx) + β(Ay ± By) = α((A ± B)x) + β((A ± B)y), und die von αA aus (αA)(βx + γy) = αA(βx + γy) = α(βAx + γAy) = α(βAx) + α(γAy) = (αβ)Ax + (αγ)Ay = (βα)Ax + (γα)Ay = β(αAx) + γ(αAy) = β(αA)x + γ(αA)y. (Welche Regeln wurden hier jeweils verwendet? Alle Umformungen erscheinen selbstverst¨andlich und fast u ussig, da sie genau den Umformungen entsprechen, die man machen ¨berfl¨ d¨ urfte, wenn alle Symbole einfach Zahlen w¨aren. Diese suggestive Art ist typisch f¨ ur die ¨ Mathematik und erm¨oglicht nach einiger Ubung auch sehr komplexe Sachverhalte u ¨berblicken zu k¨onnen, wel sie auf einer gen¨ ugend abstrakten Ebene genauso einfach aussehen wie Rechnungen mit Zahlen....) (ii) Das Produkt AB zweier Abbildungen A, B : V → V bildet wieder V in sich ab. Sind A und B linear, so ist AB(αx + βy) = A(B(αx + βy)) = A(αBx + βBy) = αA(Bx) + βA(By) = α(AB)x + β(AB)y, also ist auch AB linear. Das Assoziativgesetz gilt f¨ ur das Produkt beliebiger Abbildungen, von den Axiomen f¨ ur Ringe m¨ ussen also nur noch die Distributivgesetzte nachgepr¨ uft werden. Aus ((A + B)C)(x) = (A + B)(Cx) = A(Cx) + B(Cx) = (AC)x+(BC)x = (AC +BC)(x) f¨ ur alle x ∈ V ergibt sich (A+B)C = AC +BC, und aus (A(B+C))(x) = A((B+C)x) = A(Bx+Cx) = A(Bx)+A(Cx) = (AB)x+(AC)x = (AB + AC)x f¨ ur alle x ∈ V ergibt sich A(B + C) = AB + AC.

⊓ ⊔

39 3.12 Definition Eine Algebra u ¨ ber K ist eine Menge M mit Operationen, die M zu einem K-Vektorraum und zu einem Ring machen. Eine Algebra heißt kommutativ, falls f¨ ur die Multiplikation das Kommutativgesetz gilt. 3.13 Beispiel. (i) Nach dem eben bewiesenen Satz ist die Menge L(V ) der linearen Selbstabbildungn von V 6= {0} eine Algebra. Sie ist normalerweise  nicht kommutativ; als   Beispiel  1 α 1 0 betrachten wir das Produkt der beiden Scherungen A = und B = in 0 1 β 1 V = K 2 . Wegen         x x + αy x x A = , B = y y y βx + y ist

          x x x x + α(βx + y) αβ + 1)x + αy (AB) = AB =A = = , y y βx + y βx + y βx + y also AB =

αβ + 1 α β 1

!

.

Andererseits ist        x + αy x x =B = B A (BA) y y   y  x + αy x + αy = = , β(x + αy) + y βx + (αβ + 1)y also BA =

1 α β αβ + 1

!

.

F¨ ur αβ 6= 0 ist also AB 6= BA.

Die Algebra L(V ) hat u ur N = ¨brigens normalerweise auch Nullteiler. F¨ αy x N y = 0 , also

0 α 0 0



etwa ist

         αy 0 x x = 0. = =N =N N N 0 0 y y 2

Daher ist N 2 = 0, obwohl N 6= 0 ist.

(ii) Die Menge K D der Abbildungen von D nach K ist ein K-Vektorraum. Definiert man das Produkt von ϕ, ψ ∈ K D ebenfalls punktweise durch (ϕψ)(x) := ϕ(x)ψ(x) f¨ ur x ∈ D,

(15)

so erh¨alt man einen Ring; die Eigenschaften sind leicht nachzurechnen. Damit wird K D zu einer Algebra. Die Algebra ist kommutativ. Es ist n¨amlich (ψϕ)(x) = ψ(x)ϕ(x) = ϕ(x)ψ(x) = (ϕψ)(x) wegen der Kommutativit¨at der Multiplikation in K, also ist ψϕ = ϕψ f¨ ur alle ϕ, ψ ∈ K D .

40

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

3.14 Definition (i) Zwei Vektorr¨aume V, W heißen isomorph, falls es eine bijektive lineare Abbildung A : V → W gibt. Jede solche Abbildung heißt ein Isomorphismus von V nach W (oder: zwischen V und W ). (ii) Ein Isomorphismus von V nach V heißt Automorphismus von V. Isomorphismen kann man sich oft als Wechsel in der Bezeichnungsweise vorstellen, die nichts wesentliches an den Rehnungen a¨ndert. Mit Hilfe eines Isomorphismus A : V → W kann man alle Rechnungen in V in entsprechende Rechnungen in W u ¨bersetzen. 3.15 Beispiel. Ein wichtiges Beispiel ist die Abbildung co : C → R2 , die eine komplexe Re z abbildet. Diese Abbildung ist offenbar bijektiv Zahl z in den Spaltenvektor co(z) := Im z  x −1 ur reelle α, β ist (vgl. Beispiel 2.10(i)) mit Umkehrabbildung co : y → x + iy, und f¨    α Re z + β Re z ′ Re(αz + βz ′ ) = co(αz + βz ) = ′ Im(αz+ βz ′ )  α Im z + β Im z ′ Re z Re z = α = α co(z) + β co(z ′ ) +β Im z Im z ′ 



Faßt man daher C als Vektorraum u ¨ber R auf, so folgt, daß A linear ist. A ist also ein Isomorphismus zwischen der komplexen Zahlenebene C und der reellen Standardebene R2 . Automorphismen eines Vektorraums beschreiben eine (evtl. verzerrende) umkehrbare Be! 1 α wegung des ganzen Raums. Zum Beispiel sind die Scherungen A = Automor0 1 ′ phismen des K 2 . Sie bilden n¨amlich K 2 nach K 2 ab und sind bijektiv, da jeder Punkt xy′  ′ ′ hat: genau ein Urbild xy = x −αy y′ x′ y′



=A



x y

  ′  x + αy x = ⇔ y′ y ′ ⇔ x = x + αy, y ′ = y ⇔ x = x′ − αy ′ , y = y ′ .

Man kann Automorphismen eines Vektorraums als Symmetrien des ganzen Raums auffassen. Tats¨achlich bilden die Automorphismen eine Gruppe. 3.16 Satz (i) Sind A : V → W und B : U → V Isomorphismen, so ist AB ein Isomorphismus von U → W.

(ii) Ist A : V → W ein Isomorphismus, so ist A−1 ein Isomorphismus von W nach V . D.h. die Inverse einer linearen Abbildung ist wieder linear. (iii) Die Menge GL(V ) aller Automorphismen von V ist eine Gruppe, die sogen. allgemeine lineare Gruppe (engl.: general linear group). Beweis. (i) Daß AB linear ist, sieht man genauso wie in Satz 2.11(ii). Daß das Nacheinanderausf¨ uhren von zwei Bijektionen wieder eine Bijektion ist, ist klar. Also ist AB linear und bijektiv, d.h. ein Isomorphismus.

41 (ii) Die Inverse einer Bijektion ist offenbar bijektiv. Es bleibt zu zeigen, daß A−1 linear ist, also A−1 (αx + βy) = αA−1 x + βA−1 y. (16) Da A linear ist, ist A(αA−1 x+βA−1 y) = αAA−1 x+βAA−1 y = αx+βy, und Multiplikation mit A−1 (d.h. Anwenden der Umkehrabbildung) ergibt (16). (iii) Nach (i) und (ii) gilt A, B ∈ GL(V ) ⇒ AB, A−1 ∈ GL(V ). Die Axiome aus Definition 1.21 f¨ ur eine Abbildungsgruppe sind also erf¨ ullt). ⊓ ⊔ Physikalisch relevante Symmetrien des physikalischen Raums R3 m¨ ussen nicht nur die lineare Struktur des Raums erhalten, sondern auch noch meßbare Gr¨oßen wie L¨angen und Winkel. Im Rest dieses Kapitels werden wir diese Gr¨oßen in R2 und R3 n¨aher untersuchen, wobei wir als Ausgangspunkt einige Eigenschaften aus der Schule bekannter Funktionen ohne Beweis zusammenstellen: √ Die Quadratwurzel x einer nichtnegativen reellen Zahl x ist nichtnegativ, und f¨ ur reelle Argumente x, y gilt √ √ √ √ √ x2 = ( x)2 = |x|, xy = x y. (17) Der Wert ex der Exponentialfunktion an einer reellen Zahl x ist positiv, und es gilt ex+y = ex ey

(18)

Sinus sin φ und Cosinus cos φ einer reellen Zahl φ liegen im Intervall [−1, 1], zu beliebigen c, s ∈ R mit c2 + s2 = 1 gibt es genau eine Zahl φ ∈ ] − π, π] (wobei π = 3.1415926535...) mit cos φ = c und sin φ = s, und mit der Schreibweise cos2 φ = (cos φ)2 und sin2 φ = (sin φ)2 gilt cos2 φ + sin2 φ = 1, (19) cos(−φ) = cos φ,

sin(−φ) = − sin φ,

cos 0 = cos(2π) = 1, sin 0 = sin(2π) = 0, π π cos = 0, cos π = −1, sin = 1, sin π = 0, 2 2 cos(φ + ψ) = cos φ cos ψ − sin φ sin ψ, sin(φ + ψ) = sin φ cos ψ + cos φ sin ψ.

(20) (21) (22) (23) (24)

Aus (21)–(24) folgt cos(φ + π) = − cos φ,

sin(φ + π) = − sin φ,

(25)

cos(φ + 2π) = cos φ,

sin(φ + 2π) = sin φ;

(26)

d.h., Sinus und Cosinus sind periodisch mit der Periode 2π. Die zugeh¨origen formal korrekten Definitionen und Beweise werden in Kapitel 15 nachgeholt. Da wir – außer als Anschauungsmaterial – von den im Rest des Kapitels besprochenen Aussagen im sp¨ateren Text keinen Gebrauch machen, bleibt der logische Aufbau des Stoffes unbeeintr¨achtigt.

42

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

Komplexe Zahlenebene und zweidimensionaler Raum Wie wir in Beispiel 3.15 gesehen haben, haben wir f¨ ur die reelle Ebene zwei isomorphe Darstellungen als Vektorraum, n¨amlich die komplexe Zahlenebene C und die Standarde Re z 2 bene R . Der Isomorphismus co : z → Im z ordnet der komplexen Zahl z = a + bi die kartesischen Koordinaten co z = ab zu.

Um in C Winkel zu definieren, bemerken wir zuerst, daß eine komplexen Zahl w = c + si genau dann den Betrag 1 hat, wenn c2 +s2 = 1 ist. Wegen den oben erw¨ahnten Eigenschaften sind die komplexen Zahlen vom Betrag 1 also gerade die Zahlen der Form w = cos φ + i sin φ.

(27)

(Es ist hier und auch sp¨ater oft sinnvoll, den Faktor i vorne zu schreiben, um Klammern zu sparen.) Da man jede Zahl z 6= 0 als z = rw mit r = |z| und w = z/r vom Betrag |w| = |z|/r = 1 schreiben kann, folgt 3.17 Satz (i) Jede komplexe Zahl z 6= 0 l¨aßt sich eindeutig in der Form z = r(cos φ + i sin φ)

mit r > 0, − π < ϕ ≤ π

(28)

schreiben; es ist r = |z|, und ϕ = arg z heißt das Argument von z.

(ii) Jeder Vektor x ∈ R2 \ {0} l¨aßt sich eindeutig in der Form ! r cos ϕ x= mit r > 0, − π < ϕ ≤ π r sin ϕ

schreiben. Es ist r = |x| :=

q x21 + x22 , ϕ = arg(x1 + ix2 ).

(29)

(30)

Beweis. Der erste Teil ist eben bewiesen worden, und der zweite Teil ergibt sich aus dem Isomorphismus zwischen C und R2 . ⊓ ⊔ Man nennt die Darstellung von Punkten in der durch den Satz gegebenen Form eine Darstellung durch Polarkoordinaten. Da der Betrag den Abstand vom Ursprung mißt, kann der Abstand zwischen x, y ∈ R2 oder, was dasselbe ist, die L¨ ange einer Strecke xy in C oder im R2 durch den Betrag |y − x| definiert werden. Die Menge aller z ∈ C mit |z − z0 | = r ist dann ein Kreis um z0 ∈ C mit Radius r, und die Menge aller x ∈ R2 mit |x − x0 | = r ist ein Kreis um den Mittelpunkt x0 ∈ R2 mit Radius r. (Man beachte, daß x0 ein Vektor mit zwei Komponenten (x0 )1 und (x0 )2 ist.) Wir schauen uns nun die Wirkung der Multiplikation mit einer komplexen Zahl (27) vom Betrag 1 an. Die durch z → wz definierte Abbildung ist offensichtlich linear, bildet also (als affine Abbildung) Geraden auf Geraden ab. Da der Nullpunkt festbleibt, gehen Geraden durch 0 in Geraden durch 0 u ¨ber. Wegen |wz| = |w| · |z| = |z| bleibt außerdem der Abstand vom Nullpunkt unver¨andert. Die Multiplikation mit w interpretieren wir also geometrisch als Drehung um den Nullpunkt, und wir nennen die Zahl φ in (27) den zu dieser Drehung

43 geh¨origen Winkel. Wegen der Periode ist der Winkel nur bis auf ein Vielfaches von 2π bestimmt, und man normalisiert den Winkel, indem man den Wert w¨ahlt, der in ] − π, π] liegt. (Manchmal normalisiert man auch so, daß φ ∈ [0, 2π[.)

Diese Definition des Winkels macht nat¨ urlich nur dann Sinn, wenn sich die Winkel auch wie gewohnt addieren. Wir schauen uns daher an, was passiert, wenn wir nach einer Drehung um den Winkel φ noch eine Drehung um den Winkel ψ anschließen. Letztere wird durch eine Multiplikation mit w′ = cos ψ + i sin ψ realisiert. Das Bild von z unter dem Produkt der beiden Drehungen ist w′ wz, entsteht also durch Multiplikation mit w′ w vom Betrag |w′ w| = |w′ | · |w| = 1. Wir erhalten also wieder eine Drehung. Der zugeh¨orige Winkel ergibt sich wegen w′ w = = = =

(cos ψ + i sin ψ)(cos φ + i sin φ) cos ψ cos φ + i sin ψ cos φ + i cos ψ sin φ − sin ψ sin φ (cos ψ cos φ − sin ψ sin φ) + i(sin ψ cos φ + cos ψ sin φ) cos(ψ + φ) + i sin(ψ + φ)

nach (23) und (24) zu ψ+φ. Es verh¨alt sich also alles so, wie es die geometrische Anschauung nahelegt. Daß die Multiplikation der Zahlen w und w′ einer Addition der Winkel entspricht, erinnert an die Potenzgesetze. Diese Analogie kann man vollkommen machen, wenn man in der Exponentialfunktion komplexe Argumente erlaubt. Soll das Potenzgesetz (18) gelten, muß auf alle F¨alle ex+yi = ex eyi sein. Den Ausdruck eyi , der noch keine Bedeutung hat, identifizieren wir mit der Drehung um den Winkel y. Damit erhalten wir die 3.18 Definition Die komplexe Exponentialfunktion ist f¨ ur z = x + yi durch die Eulersche Formel ex+yi := ex (cos y + i sin y) (31) definiert. ′



Als Produkt der Drehungen um die Winkel y ′ und y ist ey i eyi = e(y +y)i . Daher ist auch ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ex +y i ex+yi = ex ey i ex eyi = ex ex ey i eyi = ex +x e(y +y)i = ex +x+(y +y)i = e(x +y i)+(x+yi) Das Potenzgesetz (19) gilt also auch f¨ ur beliebige komplexe Exponenten. Wegen ex+2πi = ex (cos(2π) + i sin(2π)) = ex (1 + i0) = ex ist die Exponentialfunktion periodisch mit der komplexen Periode 2πi. Ausdr¨ ucke mit rein imagin¨arem Exponenten wie iωx e (ω, x ∈ R) haben dagegen eine reelle Periode T = 2π/ω, denn wegen eiωT = e2πi = 1 iω(x+T ) ist e = eiωx eiωT = eiωx . Die Polarkoordinatendarstellung (28) l¨aßt sich nun k¨ urzer in der Form z = reiφ

(32)

schreiben. Diese Exponentialform tritt in den Anwendungen vor allem bei der Analyse periodischer Funktionen (Fourieranalyse) auf. In kartesischen Koordinaten ist dagegen nur die trigonometrische Form (29) n¨ utzlich. Aus der Polarkoordinatendarstellung entnimmt man auch, daß die Multiplikation mit einer beliebigen komplexen Zahl 6= 0 durch Drehung um den durch das Argument gegebenen Winkel und anschließende Streckung um den Betrag zustande kommt.

44

KAPITEL 3. VEKTOREN UND DER PHYSIKALISCHE RAUM

Statt in C k¨onnen wir auch in der Standardebene R2 arbeiten; dazu m¨ ussen wir das Bild von z = x1 + x2 i unter einer Drehung in kartesischen Koordinaten ausdr¨ ucken. Wegen eiφ z = = = = mit

(cos φ + i sin φ)(x1 + x2 i) cos φ · x1 + i sin φ · x1 + i cos φ · x2 − sin φ · x2 (cos φ · x1 − sin φ · x2 ) + (sin φ · x1 + cos φ · x2 )i x′1 + x′2 i

 ′   x1 cos φ · x1 − sin φ · x2 = = x′2 sin φ · x1 + cos φ · x2

cos φ − sin φ sin φ cos φ

!  x1 x2

ist im R2 eine Drehung um den Winkel φ durch die lineare Abbildung ! cos φ − sin φ Rφ := sin φ cos φ

(33)

(34)

gegeben. Die Additivit¨at der Winkel dr¨ uckt sich jetzt in der Formel Rψ Rφ = Rψ+φ aus. Die Drehung um π ist Rπ = −I, geometrisch eine Punktspiegelung am Nullpunkt, die Geraden durch Null auf sich abbildet. 3.19 Proposition Geht die um den Winkel φ gedrehte Gerade G0x (x 6= 0) durch den Punkt y 6= 0, so ist x · y := x1 y1 + x2 y2 = ±|x| |y| cos φ, (35) x1 y2 − x2 y1 = ±|x| |y| sin φ.

(36)

Beweis. Es ist G0x = {α0+βx | α+β = 1} = {βx | β ∈ K}, da man stets α = 1−β w¨ahlen kann. Das Bild unter der Drehung Rφ ist Rφ (G0x ) = {Rφ (βx) | β ∈ K} = {βRφ x | β ∈ K}. Da dieses Bild y enthalten soll, gilt die Gleichung   β(cos φ · x1 − sin φ · x2 ) y = βRφ x = , β(sin φ · x1 + cos φ · x2 ) und wegen y 6= 0 kann β nicht Null sein. Es folgt y1 (sin φ · x1 + cos φ · x2 ) = y1 y2 /β = (cos φ · x1 − sin φ · x2 )y2 . Ausmultiplizieren und Sortieren ergibt sin φ(x1 y1 + x2 y2 ) = cos φ(x1 y2 − x2 y1 ).

(37)

Daraus folgt aber, daß es eine Zahl p mit x1 y1 + x2 y2 = p cos φ,

x1 y2 − x2 y1 = p sin φ

(38)

gibt. Denn cos φ und sin φ sind wegen (19) nicht beide Null, also kann man p durch Aufl¨osen einer der beiden Gleichungen in (38) definieren und erh¨alt nach Einsetzen in (37) die andere

45 Gleichung. Quadriert man nun die beiden Gleichungen in (38) und addiert das Ergebnis, so erh¨alt man (x1 y1 + x2 y2 )2 + (x1 y2 − x2 y1 )2 = p2 (cos2 φ + sin2 φ),

was sich zu (x21 + x22 )(y12 + y22 ) = p2 umformen l¨aßt. Daher ist |x|2 |y|2 = p2 , also p = ±|x| |y|, und die Behauptung folgt. ⊓ ⊔

Wegen (25) unterscheiden sich die Winkel f¨ ur die beiden Vorzeichen also gerade um π. Man nennt den durch das positive Vorzeichen in (35) und (36) festgelegten Winkel φ den Winkel 0 mit B[f (x0 ); ε] ⊆ U . Das zugeh¨orige U0 , f¨ ur das (1) gilt, erf¨ ullt dann f (x) ∈ B[f (x0 ); ε] ⊆ U f¨ ur alle x ∈ U0 . Daher ist die Stetigkeitsbedingung erf¨ ullt. ⊓ ⊓ ⊔ ⊔ Um mit Funktionen rechnen zu k¨onnen, definieren wir : 5.12 Definition Ω, Ω′ seien Hausdorffra¨ ume, V, W normierte Vektorr¨aume. (i) F¨ ur Funktionen f :Ω → V, g: Ω′ → V, α:Ω′ → K definieren wir die Funktionen f ± g, αf, f /α : Ω′′ → V durch (f ± g)(x) := f (x) ± g(x) (αf )(x) := α(x)f (x) (f /α)(x) := f (x)/α(x)

f¨ ur x ∈ Ω′′ := Ω ∩ Ω′ , f¨ ur x ∈ Ω′′ := Ω ∩ Ω′ , f¨ ur x ∈ Ω′′ := {x ∈ Ω ∩ Ω′ | α(x) 6= 0}.

(ii) F¨ ur f : Ω → V, g : Ω′ → W definieren wir f ◦ g : Ω′′ → V durch (f ◦ g)(x) := f (g(x)),

f¨ ur x ∈ Ω′′ := {x ∈ Ω′ | g(x) ∈ Ω}.

Der folgende Satz, rekursiv angewandt, ergibt die Stetigkeit einer großen Klasse von Funktionen. 5.13 Satz (i) Sind f, g, α stetig, so sind auch f ± g, αf, f /α stetig. (ii) Ist α : Ω → K stetig, so sind auch die auf Ω definierten Abbildungen x → Re α(x), x → Im α(x), x → |α(x)| stetig. (iii) f : Ω → Kn ist genau dann stetig, wenn die Abbildung fj : Ω → K mit fj (x) := f (x)j

(j = 1, . . . , n)

stetig sind. (iv) Ist f : Ω → V stetig, so ist auch die Abbildung x → kf (x)k stetig. (v) Sind f und g stetig, so ist auch f ◦ g stetig. Beweis. Wir benutzen Proposition 5.11. Zu jedem ε0 ∈ ]0, 1] gibt es nach Voraussetzung Umgebungen Uf , Ug , Uα von x0 so daß kf (x) − f (x0 )k ≤ ε0 , kg(x) − g(x0 )k ≤ ε0 , |α(x) − α(x0 )| ≤ ε0 f¨ ur alle x ∈ U := Uf ∩ Ug ∩ Uα , und U0 ist ebenfalls Umgebung von x0 .

¨ KAPITEL 5. RAUME UND WEGE

64 (i)Es gilt

k(f ± g)(x) − (f ± g)(x0 )k = k(f (x) − f (x0 )) ± (g(x) − g(x0 ))k ≤ kf (x) − f (x0 )k + kg(x) − g(x0 )k ≤ 2ε0 . F¨ ur die Wahl ε0 = ε/2 ist dies ≤ ε; also ist f ± g stetig. Zum Nachweis der Stetigkeit von αf und f /α sch¨atzen wir zun¨achst |α(x)| ab. F¨ ur x ∈ U0 ist |α(x)| ≤ |α(x0 )| + |α(x) − α(x0 )| ≤ |α(x0 )| + ε0 ≤ |α(x0 )| + 1, |α(x)| ≥ |α(x0 )| − |α(x) − α(x0 )| ≥ |α(x0 )| − ε0 ≥ |α(x0 )|/2 falls ε ≤ |α(x0 )|/2 (was im Fall der Division nach Voraussetzung positiv ist). Also ist k(αf )(x) − (αf )(x0 )k = kα(x)(f (x) − f (x0 )) + (α(x) − α(x0 ))f (x0 )k ≤ |α(x)| kf (x) − f (x0 )k + |α(x) − α(x0 )| kf (x0 )k ≤ (|α(x0 )| + 1) ε0 + ε0 kf (x0 )k = const · ε0 F¨ ur gen¨ ugend kleine ε0 ist dies ≤ ǫ; also ist αf stetig. Ebenso ist

α(x0 )f (x) − α(x)f (x0 )

k(f /α)(x) − (f /α)(x0 )k =

α(x0 )α(x) |α(x0 )| kf (x) − f (x0 )k + |α(x) − α(x0 )| kf (x0 )k ≤ |α(x0 )| |α(x)| |α(x0 )|ǫ0 + ǫ0 kf (x0 )k ≤ = const · ε0 , |α(x0 )|2 /2 und wie vorher folgt, daß f /α stetig ist. (ii)-(iv): F¨ ur ε0 ≤ ε ist |Reα(x) − Reα(x0 )| = |Re(α(x) − α(x0 ))| ≤ |α(x) − α(x0 )| ≤ ε0 ≤ ε, |Imα(x) − Imα(x0 )| = |Im(α(x) − α(x0 ))| ≤ |α(x) − α(x0 )| ≤ ε0 ≤ ε, ||α(x)| − |α(x0 )|| ≤ |α(x) − α(x0 )| ≤ ε0 ≤ ε, |fj (x) − fj (x0 )| = |(f (x) − f (x0 ))j | ≤ kf (x) − f (x0 )k∞ ≤ ε0 ≤ ε, |kf (x)k − kf (x0 )k| ≤ kf (x) − f (x0 )k ≤ ε0 ≤ ε. Also sind die angegebenen Funktionen stetig. F¨ ur (iii) ist noch die Umkehrung zu zeigen. Aus der Stetigkeit der fj ergeben sich Umgebungen Uj von x0 mit |fj (x) − fj (x0 )| ≤ ε f¨ ur n x ∈ Uj ; da U0 := U1 ∩ · · · ∩ Un Umgebung von x0 ist und kf (x) − f (x0 )k∞ = maxj=1 |fj (x) − fj (x0 )| ≤ ε f¨ ur x ∈ U0 , ist f stetig. (v) Hier wenden wir direkt Definition 5.10 an. F¨ ur jede Umgebung U von (f ◦ g)(x0 ) = f (g(x0 )) gibt es wegen der Stetigkeit von f eine Umgebung Uf von g(x0 ) mit f (z) ∈ U f¨ ur alle z ∈ Uf , und wegen der Stetigkeit von g eine Umgebung U0 von x0 mit g(x) ∈ Uf f¨ ur alle x ∈ U0 . Dann ist aber f (g(x)) ∈ U f¨ ur alle x ∈ U0 , so daß f ◦ g stetig ist. ⊓ ⊔

65 ⊓ ⊔

5.14 Beispiel. Die durch f (x) :=

Rex1 /(|x2 − 1| + 1) 3 (|x1 | − |x2 |3 )/(|x1 |2 + |x2 |2 )2

!

definierte Funktion ist in allen Punkten x ∈ C2 definiert, f¨ ur die kein Nenner Null wird. Das letztere ist nur f¨ ur x = 0 der Fall, da f¨ ur x 6= 0 entweder |x1 |2 > 0 oder |x2 |2 > 0 ist und die Nenner daher positiv sind. Also ist Def(f ) = C2 \{0}. Nach Satz 5.13. ist f dort auch stetig, da sich f aus den dort genannten Funktionen und Operationen aufbauen l¨aßt. Bewegungen eines physikalischen Teilchens werden mathematisch durch Wege beschrieben. 5.15 Definition (i) Ein Weg (in einem normierten Raum V ) ist eine stetige Abbildung x eines echten Intervalls [α, ω] ⊆ R nach V . Die Punkte x(α) und x(ω) heißen Anfangspunkt und Endpunkt des Weges x; man sagt auch, x verbindet x(α) und x(ω). Ein Weg x mit x(α) = x(ω) heißt geschlossen. (ii) Ein Weg x : [α, ω] → V heißt stetig differenzierbar (kurz: C 1 -Weg), falls es eine stetige Funktion x[·, ·] : [α, ω] × [α, ω] → V gibt, so daß x(s) − x(t) = x[s, t] (s − t)

f¨ ur s, t ∈ [α, ω].

x[s, t] heißt dann die Steigung von x bei s und t, und x˙ := x[t, t] die Ableitung von x an der Stelle t. Ist x[s, t] 6= 0, so heißt die Gerade {x(t) + x[s, t]h | h ∈ R} die Sekante durch x(s) und x(t) falls s 6= t, und die Tangente an x in t falls s = t. Der Weg x : [α, ω] → V heißt glatt, falls er in jedem seiner Punkte eine Tangente besitzt, d. h. falls er stetig differenzierbar ist und x(t) ˙ 6= 0 f¨ ur alle t ∈ [α, ω] ist.

Ein stetig differenzierbarer Weg

Ein geschlossener Weg

Ein glatter Weg

¨ KAPITEL 5. RAUME UND WEGE

66 t=α t=α t=ω t=ω

t

t

s

h=1 t=α

t=ω h=0

Eine Sekante

Eine Tangente

t

t

s

Ein Doppelpunkt: Sekante nicht definiert

Ein Knick: Tangente nicht definiert

h=0

67 t β t

x (x(β), β)

x

(x(t), t)

(t, x(t)) x[s, t] x(t) − x(s)

α

(β, x(β))

x(α, α)

t−s 1

(α, x(α)) t

x

Weltlinie eines Weges im R1

Graph eines Weges im R1 (”Schulfunktion”)

s

Steigungsdreieck

(iii) Alternativschreibweisen: x(t) ˙ =: x′ (t) =: ∂t x(t) =:

d dx(t) x(t) =: =: dx(t)/dt. dt dt

(iv) Die Menge ab := {a + (b − a)h | h ∈ [0, 1]} heißt die Strecke von a nach b. (Es ist ab = ba ; f¨ ur a, b ∈ R ist ab = [a, b] falls a ≤ b und ab = [b, a] falls b ≤ a.) 5.16 Bemerkung. Interpretiert man t als Zeit und x(t) als den Ort eines Teilchens zur Zeit t, so ist x[s, t] f¨ ur s < t die mittlere Geschwindigkeit des Teilchens im Zeitintervall [s, t], und f¨ ur s = t ist x[t, t] = x(t) ˙ die Momentangeschwindigkeit zur Zeit t. In anderen Anwendungen sind andere Interpretationen m¨oglich, z. B. x(t) = Zahl radioaktiver Atome, x[s, t] = mittlere Zerfallsgeschwindigkeit, −x(t)/x(t) ˙ = Zerfallsrate. Das Argument t braucht auch nicht unbedingt die Zeit zu sein. 5.17 Beispiel. Gleichf¨ ormige Kreisbewegung. Wir betrachten eine gleichf¨ormige periodische Bewegung eines Massenpunkts auf einem Kreis um x0 mit Radius r, mit Periode T . Dazu geh¨ort der Weg x(t) = x0 + a cos ωt + b sin ωt

t

t

¨ KAPITEL 5. RAUME UND WEGE

68

wobei ω = 2π/T die der Periode zugeordnete Kreisfrequenz ist und a und b orthogonale Vektoren der L¨ange |a| = |b| = r sind, die die Position des Massenpunkts relativ zum Kreismittelpunkt zu den Zeitpunkten t = 0 und t = T /4 angeben. t = T /4 ................. ............... ... ............... ......... ..... ....... ....... ........ ........ ...... ...... ...... ...... .... ..... ..... . . . ..... . . . ... .... . . . . . . ... .. . . . . ... .. ... ... . . .. ... .. . . ... .. .. . . ... .... .... ... ... ............ ... ... ..... .. ... ... .... ... . ... .................................................................................... .... . .. ... ... ... ... 0 ... ... .. .. ... . . ... ... ... ... ... ... .... ...... ... . . . . ....... ..... ......... .... ... ....... ..... ... ....... ...... ... ......... ....... . . . . . . . . ........... ... ........................................... ... ... ... ... ... ... ... ... ... ... ... ... .. .............. ..... .

b

x(t) •



•· rx

x(t) ˙

a

t=0

ω = 2π/T

Die Drehachse steht offenbar senkrecht auf a und b, und hat daher die Richtung von d = a × b. Die Ableitung ergibt sich (mit Schulwissen) zu x(t) ˙ = −ωa sin ωt + ωb cos ωt. Aus der in Proposition 2.25 bewiesenen Formel (x × y) × z = (x · z)y − (y · z)x folgen wegen a · b = 0 die Gleichungen d × a = (a × b) × a = (a · a)b = r2 b, d × b = (a × b) × b = −(b · b)a = −r2 a.

Da das Vektorprodukt linear ist, folgt

d × (x(t) − x0 ) = d × (a cos ωt + b sin ωt) = (d × a) cos ωt + (d × b) sin ωt = r2 b cos ωt − r2 a sin ωt. Also l¨aßt sich die Ableitung auch als x(t) ˙ =

ω d × (x(t) − x0 ) r2

schreiben. Man kann daraus ablesen, daß die Ableitung auf der Verbindungslinie zwischen Massenpunkt und Mittelpunkt und auf der Drehachse senkrecht steht. Man kann einen Weg zeichen, ohne mit dem Stift zu springen: 5.18 Proposition x : [α, ω] → V sei stetig, α < β ≤ ω. Dann gilt: x(t) = a

f¨ ur α ≤ t < β ⇒ x(β) = a.

(5)

x(t) ≥ a

f¨ ur α ≤ t < β ⇒ x(β) ≥ a.

(6)

Im Fall V = R gilt auch

Analoge Aussagen gelten f¨ ur α ≤ β < ω und β < t ≤ ω.

69 Beweis. Wir beweisen nur (5); das u ¨brige geht analog. W¨are x(β) =: b 6= a, so k¨onnten wir ′ disjunkte Umgebungen U von a und U von b finden. Wegen der Stetigkeit von x gibt es zu jedem ǫ > 0 eine Umgebung U0 von β mit x(t) ∈ U f¨ ur alle t ∈ U0 . U0 enth¨alt aber ′ ein t ∈ [α, β[, also ist a = x(t) ∈ U . Wegen a ∈ U und U und U ′ also nicht disjunkt, Widerspruch. ⊓ ⊔ 5.19 Proposition (i) Die Ableitung eines C 1 -Weges ist stetig. (ii) Die Steigungen eines C 1 -Weges sind eindeutig bestimmt, und es gilt   x(s) − x(t) falls s 6= t, s−t x[s, t] = x[t, s] =  x(t) ˙ falls s = t.

(7)

Beweis. Hintereinanderausf¨ uhrung der Abbildungen ϕ : t → (t, t) bzw. ψ : s → (s, to ) f¨ ur festes t0 ∈ [α, ω] und x zeigt (Satz 5.13 v), daß die Abbildungen t → x[t, t] = x(t) ˙ und s → x[s, t0 ] stetig sind; insbesondere gilt (i). Da Formel (7) direkt aus der Definition folgt, ergibt sich, daß eine andere Steigung x˜[·, ·] f¨ ur s 6= t mit x[·, ·] u ur jedes ¨bereinstimmt. F¨ to ∈ [α, ω] ist die Abbildung z : s → x˜[s, t0 ] − x[s, t0 ] stetig; wegen z(s) = 0 f¨ ur s 6= to folgt aus Proposition 5.18, daß auch z(t0 ) = 0 ist, also x˜[to , t0 ] = x[t0 , t0 ]. Da t0 ∈ [α, ω] beliebig war, stimmen x˜[·, ·] und x[·, ·] u ⊓ ⊔ ¨berall u ¨berein. ⊓ ⊔ In einer kleinen Umgebung eines Punktes kann ein glatter Weg gut durch seine Tangente approximiert werden werden. Um dies pr¨azise formulieren zu k¨onnen, f¨ uhren wir die sogenannten Landau-Symbole O(h(x)) (gelesen ”groß Oh von h(x)”) und o(h(x)) (gelesen ”klein oh von h(x)”) ein: ⊓ ⊔

5.20 Definition Man schreibt f (x) = g(x) + O(h(x))

f¨ ur x → x 0 ,

(8)

falls eine Umgebung U von x0 und eine Zahl γ > 0 mit der Eigenschaft kf (x) − g(x)k ≤ γ |h(x)|

f¨ ur alle x ∈ U

(9)

existieren, und sagt dann, daß sich f (x) und g(x) f¨ ur alle x → x0 nur um Terme der Gr¨ oßenordnung h(x) unterscheiden. Man schreibt f (x) = g(x) + o(h(x))

f¨ ur x → x 0 ,

(10)

falls f¨ ur jedes γ > 0 eine Umgebung U von x0 mit (9) existiert, und sagt dann, daß sich f (x) und g(x) f¨ ur x → x0 nur um Terme von kleinerer Gro ¨ßenordnung als h(x) unterscheiden. Den Zusatz ”f¨ ur x → x0 ” l¨aßt man weg, wenn er sich aus dem Kontext ergibt.

¨ KAPITEL 5. RAUME UND WEGE

70

Landau-Symbole treten nur auf der rechten Seite von Gleichungen auf; f¨ ur eine Gleichungskette f (x) = g1 (x) + O(h1 (x)), . . . , f (x) = gm (x) + O(hm (x))

schreibt man jedoch k¨ urzer

f (x) = g1 (x) + O(h1 (x)) = · · · = gm (x) + O(hm (x)), und sinngem¨aß ebenso f¨ ur andere Umformungen.

f (h)

O(x3 )

O(h2 )

O(h)

O(1)

f¨ ur h → 0

h

5.21 Beispiel. Sei x, x0 , α ∈ C, m, n ∈ Z.

(i) 10x = O(x), 0.1x = O(x), aber auch 1020 x = O(x) f¨ ur x → x 0 . (ii) Ist m ≤ n, so ist α(x − x0 )n = O((x − x0 )m ) f¨ ur x → x 0 . (iii) Ist m < n, so ist α(x − x0 )n = o((x − x0 )m ) f¨ ur x → x 0 .

71

x x(t)

x(t0 ) + x(t0 )(t-t0 ) o(t-t0 ) x˙

t t0

t

¨ KAPITEL 5. RAUME UND WEGE

72

x O(t-t0 )

t

t0 t 5.22 Satz

(i) (konstante Approximation) f : Ω → V sei stetig, x, x0 ∈ Ω. Dann gilt f (x) = f (x0 ) + o(1)

f¨ ur x → x 0 .

(11)

(ii) (lineare Approximation) x : [α, ω] → V sei C 1 -Weg, t, t0 , t + h ∈ [α, ω]. Dann gilt x(t + h) = x(t) + x(t) ˙ h + o(h) f¨ ur h → 0, (12) x(t) = x(t0 ) + x(t ˙ 0 ) (t − t0 ) + o(t − t0 )

f¨ ur t → t0 .

(13)

Beweis. (i) Nach Proposition 5.11 gibt es zu jedem γ > 0 eine Umgebung U0 von x0 , so daß kf (x) − f (x0 )k ≤ γ = γ · 1, und das wird gerade durch (11) ausgedr¨ uckt. (ii) Zu jedem γ > 0 gibt es wegen der Stetigkeit der Steigung eine Umgebung U0 von (t, t) mit kx[s, s′ ] − x[t, t]k ≤ γ f¨ ur (s, s′ ) ∈ U0 . Sei B[(t, t); ǫ] eine in U0 enthaltene Kugel. Da f¨ ur |h| ≤ ǫ das Paar (t + h, t) in B[(t, t); ǫ] liegt, gilt kx[t + h, t] − x(t)k ˙ ≤ γ f¨ ur |h| ≤ ǫ, also kx(t + h) − x(t) − x(t) ˙ hk = kx[t + h, t] h − x(t)hk ˙ ≤ kx[t + h, t] − x(t)k ˙ |h| ≤ γ|h|, und das wird gerade durch (12) ausgedr¨ uckt. ⊓ ⊔

73 ⊓ ⊔

5.23 Bemerkung. Der Physiker nennt das Ersetzen von x(t) durch die Tangente x(t0 ) + x(t ˙ 0 ) (t − t0 ) linearisieren, und ignoriert in der Regel den ”Fehlerterm” o(t − t0 ). Die Landau-Symbole ”schlucken” alle gen¨ ugend kleinen Terme: f¨ ur x → x 0 .

5.24 Proposition Sei g(x) = O(h(x))

(i) f (x) = g0 (x) + g(x) + O(h(x)) ⇒ f (x) = g0 (x) + O(h(x)) (ii) f (x) = g0 (x) + O(h0 (x)) ⇒ f (x)g(x) = g0 (x)g(x) + O(h0 (x)h(x)) (iii) f (x) = g0 (x) + o(h0 (x)) ⇒ f (x)g(x) = g0 (x)g(x) + o(h0 (x)h(x)) (iv) Ist g(x) = o(H(x)), so gilt f (x) = g0 (x) + g(x) + o(H(x)) ⇒ f (x) = g0 (x) + o(H(x)) Beweis. (i) folgt aus kf (x) − g0 (x)k ≤ kf (x) − (g0 (x) + g(x))k + kg(x)k ≤ γ0 |h(x)| + γ|h(x)| = (γ0 + γ)|h(x)|. (ii) und (iii) folgen aus kf (x)g(x) − g0 (x)g(x)k ≤ kf (x) − g0 (x)k kg(x)k ≤ γ0 |h0 (x)| · γ|h(x)| = γ0 γ|h0 (x)h(x)|, da im Fall (iii) γ0 und daher γ0 γ beliebig klein gemacht werden kann. (iv) folgt aus kf (x) − g0 (x)k ≤ kf (x) − (g0 (x) + g(x))k + kg(x)k ≤ γ0 |H(x)| + γ|H(x)| = (γ0 + γ)|H(x)|, da γ0 und γ, und damit γ0 + γ beliebig klein gemacht werden k¨onnen. ⊓ ⊔ ⊓ ⊔

5.25 Satz Sind x, y : [α, ω] → V und z : [α, ω] → K stetig differenzierbar, so sind auch x ± y, xz, und falls z(t) 6= 0 f¨ ur t ∈ [α, ω] auch x/z stetig differenzierbar, und es gelten die Ableitungsregeln (x ± y)′ = x′ ± y ′ , (14) (xz)′ = x′ z + xz ′ , ′





(15)

2

(x/z) = (x z − xz )/z .

(16)

Beweis. (i) Sei u := x ± y. Dann ist u(s) − u(t) = (x(s) ± y(s)) − (x(t) ± y(t)) = x(s) − x(t) ± (y(s) − y(t)) = x[s, t](s − t) ± y[s, t](s − t) = u[s, t](s − t) mit der Steigung u[s, t] := x[s, t] ± y[s, t]. Diese ist stetig nach Satz 5.13, und f¨ ur s = t folgt u(t) ˙ = x(t) ˙ ± y(t). ˙

¨ KAPITEL 5. RAUME UND WEGE

74 (ii) Sei u := xz. Dann ist

u(s) − u(t) = x(s)z(s) − x(t)z(t) = (x(s) − x(t))z(s) + x(t)(z(s) − z(t)) = x[s, t](s − t)z(s) + x(t)z[s, t](s − t) = u[s, t](s − t) mit der Steigung u[s, t] := x[s, t]z(s) + x(t)z[s, t]. Diese ist stetig nach Satz 5.13, und f¨ ur s = t folgt u(t) ˙ = x(t)z(t) ˙ + x(t)z(t). ˙ (iii) Sei u := x/z. Dann ist x(s) x(t) x(s)z(t) − x(t)z(s) − = z(s) z(t) z(s)z(t) (x(s) − x(t))z(t) − x(t)(z(s) − z(t)) = z(s)z(t) x[s, t](s − t)z(t) − x(t)z[s, t](s − t) = = u[s, t](s − t) z(s)z(t)

u(s) − u(t) =

mit der Steigung u[s, t] := (x[s, t]z(t) − x(t)z[s, t])/z(s)z(t). Diese ist stetig nach Satz 5.13, 2 und f¨ ur s = t folgt u(t) ˙ = (x(t)z(t) ˙ − x(t)z(t))/z(t) ˙ . ⊓ ⊔ ⊓ ⊔ Folgerung F¨ ur n ∈ Z ist

d n (t ) dt

n−1 P

= ntn−1 . Beweis. Nach Satz 4.18 ist sn −tn = (

sk tn−1−k )(s−

k=0

t) f¨ ur n ≥ 0, also ist die Steigung durch die Summe gegeben. F¨ ur s = t ergibt sich als Abd d n k n−1 leitung nt . F¨ ur n < 0 ist k := −n > 0 und dt (t ) = dt (1/t ) = (0 · tk − 1 · ktk−1 )/(tk )2 = k−1−2k −kt = −kt−k−1 = ntn−1 . ⊓ ⊓ ⊔ ⊔ Das Verhalten von Wegen bei Parametertransformationen beschreibt der folgende Satz: 5.26 Satz (i) x : [α, ω] → V sei Weg, und ϕ : [α′ , ω ′ ] → [α, ω] sei stetig. Dann ist x ◦ ϕ : [α′ , ω ′ ] → V ebenfalls ein Weg. (ii) Mit x und ϕ ist auch x ◦ ϕ stetig differenzierbar, und es gilt die Kettenregel (x ◦ ϕ)′ (τ ) = x′ (ϕ(τ )) ϕ′ (τ ).

(17)

Beweis. (i) folgt aus Satz 5.13(v). (ii) Sei u := x ◦ ϕ. Dann ist u(σ) − u(τ ) = x(ϕ(σ)) − x(ϕ(τ )) = x[ϕ(σ), ϕ(τ )] (ϕ(σ) − ϕ(τ )) = x[ϕ(σ), ϕ(τ )] ϕ[σ, τ ] (σ − τ ) = u[σ, τ ](σ − τ ) mit der Steigung u[σ, τ ] := x[ϕ(σ), ϕ(τ )] ϕ[σ, τ ]. Diese ist stetig nach Satz 5.13, und f¨ ur σ = τ folgt u(τ ˙ ) = x(ϕ(τ ˙ )) ϕ(τ ˙ ). ⊓ ⊔

75 ⊓ ⊔ Im Fall V = Kn erh¨alt man die Ableitung komponentenweise: 5.27 Proposition x : [α, ω] → Kn ist genau dann stetig differenzierbar, wenn alle Komponenten xj = [α, ω] → K stetig differenzierbar sind. In diesem Fall ist x(t) ˙ = (x˙ 1 (t), . . . , x˙ n (t))T , d.h. x(t) ˙ j = x˙ j (t) f¨ ur j = 1, . . . , n. Beweis. Unmittelbar aus (x(s) − x(t))j = x(s)j − x(t)j = xj (s) − xj (t). ⊓ ⊔

⊓ ⊔

5.28 Beispiel. F¨ ur x0 , v0 , a ∈ V wird durch 1 x(t) := x0 + tv0 + t2 a 2

(t ∈ [0, T ])

(18)

ein Weg x : [0, T ] → V beschrieben. Es ist x(s)−x(t) = (s−t)v0 + 21 (s2 −t2 )a = x[s, t](s−t) ˙ = v0 + ta; sie mit der Steigung x[s, t] = v0 + 21 (s + t)a. Die Ableitung ist daher x(t) w¨achst linear mit t. Aus den S¨atzen 5.24 und 5.25 erh¨alt man die Ableitung auch direkt zu x(t) ˙ = dtd (x0 + tv0 + 12 t2 a) = 1 · vo + 21 · 2ta = v0 + ta. Im Fall V = R3 schreibt sich (18) in Komponenten als   x01 + tv01 + 12 t2 a1   x(t) =  x02 + tv02 + 21 t2 a2  x03 + tv03 + 21 t2 a3 und durch komponentenweise Ableiten erh¨alt man   v01 + ta1   x(t) ˙ =  v02 + ta2  = v0 + ta. v03 + ta3

¨ Die koordinatenfreie Beschreibung erspart viel Schreibarbeit und verbessert die Ubersicht. (18) beschreibt eine gleichf¨ormig beschleunigte Bewegung eines Teilchens, das zur Zeit t = 0 den Ort x(0) = x0 und die Geschwindigkeit x(0) ˙ = v0 hat. Ist a = 0, so ist x(t) ˙ = v0 konstant, und (18) beschreibt eine gleichf¨ormige, geradlinige Bewegung. Ist v0 = 0, so beschreibt (18) ebenfalls eine geradlinige Bewegung, aber die Geschwindigkeit w¨achst proportional zu a. In den u ¨brigen F¨allen ist die Bahn des Teilchens (d.h. das Bild des Weges) parabelf¨ormig gekr¨ ummt. Um Potenzen mit rationalen Exponenten definieren zu k¨onnen, beweisen wir als Vorbereitung: 5.29 Satz (Zwischenwertsatz) f : [α, ω] → R sei stetig. Dann gibt es zu jedem a ∈ f (α)f (ω) ein ξ ∈ [α, ω] mit f (ξ) = a.

¨ KAPITEL 5. RAUME UND WEGE

76

Beweis. O.B.d.A.(”Ohne Beschr¨ankung der Allgemeinheit”) sei f (α) ≤ a ≤ f (ω). Die Menge M := {x ∈ [α, ω]|f (x) ≤ a} enth¨alt α und ist nach oben durch ω beschr¨ankt, also ist ξ := sup M ∈ [α, ω]. Ist f (ξ) < a, so gibt es wegen der Stetigkeit von f eine Umgebung U von ξ mit kf (x) − f (ξ)k ≤ ε := a−f (ξ) f¨ ur x ∈ U . In dieser Umgebung ist f (x) ≤ a, also ist U ⊆ M, sup U ≤ ξ, was f¨ ur eine Umgebung U von ξ (relativ zu[α, ω]) nur f¨ ur ξ = ω m¨oglich ist. Aber f (ω) ≥ a > f (ξ), Widerspruch. Ist f (ξ) > a, so findet man ebenso eine Umgebung U ′ von ξ mit f (x) > a f¨ ur x ∈ U ′ . Diese Umgebung ist disjunkt zu M , was wegen sup M = ξ ∈ U ′ nicht m¨oglich ist. Also muß f (ξ) = a gelten. ⊓ ⊓ ⊔ ⊔ f

f (ω)

α f (α) α

M

ζ

ω

5.30 Satz (i) F¨ ur rationale q = m/n (m ∈ Z, n ∈ N) und a > 0 hat die Gleichung xn = am genau eine L¨osung x > 0; diese ist unabh¨angig von der speziellen Darstellung von q als √ q 1/2 Bruch und wird mit a bezeichnet. Statt a schreibt man auch a (”Wurzel aus √ a”), und statt a1/n auch n a (” n-te Wurzel aus a”). (ii) Aus x ≥ x0 > 0 folgt xq ≥ xq0 falls q ≥ 0 und xq ≤ xq0 falls q ≤ 0. (iii) Die Funktion f : ]0, ∞[→ R+ mit f (x) = xq ist stetig differenzierbar, und es gilt d q x = qxq−1 . dx (iv) F¨ ur a, b ≥ 0 und M, n ∈ Q gelten die Potenzgesetze aus Proposition 4.12. Beweis. (i) Die durch f (x) := xn definierte Funktion f : R → R+ ist stetig und es ist f (0) = 0 ≤ am , f (1 + am ) = (1 + am )n ≥ 1 + nam ≥ am (Bernoulli-Ungleichung!). Also gibt es nach

77 dem Zwischenwertsatz ein x ∈ [0, 1 + am ] mit f (x) = am , d.h. xn = am , und wegen a 6= 0 ist x > 0. Nun sei q = m′ /n′ irgendeine Darstellung von q als Bruch und y irgendeine positive L¨osung ′ ′ ′ ′ von y n = am . Dann ist m′ /n′ = m/n, also p := n′ m = nm′ . Wegen y p = y n m = (am )m = p−1 P ′ ′ (am )m = xnm = xp ist also 0 = y p − xp = (y − x)( y i xp−1−i ). Der zweite Faktor ist i=0

positiv, also folgt y − x = 0, d.h. y = x.

(ii) F¨ ur y := xq und y0 := xq0 gelten die Gleichungen y n = xm , y0n = xm 0 . Ist x ≥ x0 und n−1 P n n y i y0n−1−i ), also 0 ≤ y − y0 , und daher m ≥ 0, so ist 0 ≤ xm − xm 0 = y − y0 = (y − y0 )( i=0

y ≥ y0 . Der Fall m ≤ 0 geht analog.

(iii) Zun¨achst sei q = 1/n. F¨ ur |x − x0 | ≤ ε0 ≤ x0 /2 und y := xq , y0 := xq0 gilt y n = x ≥ x0 /2 ≥ y0n /2n , also y ≥ y0 /2. Damit ist n

ε0 ≥ |x − x0 | = |y −

y0n |

= |y − y0 |

n−1 X

y i y0n−1−i

i=0

n−1 X y0 ≥ |y − y0 | ( )i y0n−1−i = const · |y − y0 |, 2 i=0

also |xq − xq0 | = |y − y0 | ≤ ε0 / const ≤ ε f¨ ur gen¨ ugend kleine ε0 . Daher ist x → xq stetig. Nun ist n−1 X f (x) − f (x0 ) = y − y0 = (y n − y0n )/( y i y0n−1−i ) = f [x, x0 ](x − x0 ) i=0

mit der Steigung f [x, x0 ] = 1/( Es folgt

n−1 P i=0

y i y0n−1−i ). Diese ist stetig, also ist f stetig differenzierbar.

d f (x) = f [x, x] = 1/ny n−1 = y/ny n = x1/n /nx. dx

Nun sei q = m/n. Dann ist f (x) = (xm )1/n nach der Kettenregel stetig differenzierbar, und es ist d m m f (x) = (xm )1/n /nxm · mxm−1 = x n −1 = qxq−1 . ⊓ ⊔ dx n ⊓ ⊔

5.31 Bemerkung. F¨ ur q > 0 kann man auch 0q := 0 definieren. Nach den obigen Argumenten ist dann x → xq in [0, ∞[ stetig; Differenzierbarkeit hat man aber nur noch f¨ ur q ≥ 1. 5.32 Satz Die Gleichung x2 = z hat f¨ ur z ∈√C genau eine L¨osung x ∈ C mit Re x ≥ 0 (und Im x ≥ 0 falls Re x = 0); diese wird mit z bezeichnet.

¨ KAPITEL 5. RAUME UND WEGE

78 Es ist

 

z u + i Im 2u falls u := z= √  i −z sonst. √ Insbesondere ist i = −1. √

q

|z| + Re z 2

6= 0,

(19)

Beweis. Sei z = a + ib. Ist x = u + iv L¨osung von x2 = z, so folgen aus x2 = u2 − v 2 + 2iuv durch Vergleichen von Realteil und Imagin¨arteil die Gleichungen u2 − v 2 = a,

2uv = b.

(20)

Aus (20) folgt (2u2 − a)2 = 4u4 − 4au2 + a2 = 4u2 v 2 + a2 = a2 + b2 = |z|2 also 0 ≤ 2u2 = a ± |z|. Wegen a = Re z und |Re z| ≤ |z| muß das positive Vorzeichen gew¨ahlt werden, und wir erhalten r |z| + Re z u= . 2 Mit 2uv = b folgt (19); der Fall u = 0 tritt nur f¨ ur b = 0, a < 0 auf. Umgekehrt folgen aus (19) leicht die Gleichungen (20) und damit x2 = z. ⊓ ⊔

⊓ ⊔

√ Wichtig: Wegen der Fallunterscheidung (19) ist f : z → z nur in der ”entlang R− aufgeschlitzten” Zahlenebene C \ ] − ∞, 0] stetig differenzierbar; dann gilt dieselbe Ableitungsregel wie im Reellen. (Beweis: Ableitung der beiden Seiten f (z)2 = z). Die Potenzgesetze gelten f¨ ur nichtpositive Argumente nicht mehr unbedingt. 5.33 Proposition x, y : [α, ω] → R seien stetig, M ⊆ [α, ω], t0 = sup M. Dann gilt: x(t) ≤ y(t) f¨ ur t ∈ M ⇒ x(t0 ) ≤ y(t0 ). Beweis. Wie Proposition 5.18.

⊓ ⊔

⊓ ⊔

Der folgende Satz beschreibt den Zusammenhang zwischen H¨ochstgeschwindigkeit und maximal erreichbarem Abstand, indem beliebige Wege x mit geradlinigen Wegen ξ verglichen werden. 5.34 Satz F¨ ur C 1 -Wege x : [α, ω] → V und ξ : [α, ω] → R gilt: Ist ˙ f¨ kx(t)k ˙ ≤ ξ(t) ur alle t ∈ [α, ω],

(21)

kx(t) − x(s)k ≤ ξ(t) − ξ(s) f¨ ur α ≤ s ≤ t ≤ ω.

(22)

so ist auch

79 Beweis. F¨ ur festes ǫ > 0 sei M die Menge aller τ ∈ [s, t] mit kx(τ ) − x(s)k ≤ ξ(τ ) − ξ(s) + 2ǫ(τ − s);

(23)

der Term +2ǫ(τ − s) erlaubt uns etwas Spielraum beim Absch¨atzen. Offensichtlich ist s ∈ M ⊆ [s, t], also t0 :=supM ∈ [s, t]. Wegen Proposition 5.33 ist t0 ∈ M . F¨ ur τ > t0 aus einer gen¨ ugend kleinen Umgebung von t0 gelten nach Satz 5.22(ii) die Ungleichungen kx(τ ) − x(t0 ) − x(t ˙ 0 )(τ − t0 )k ≤ ǫ(τ − t0 ), ˙ o )(τ − t0 )| ≤ ǫ(τ − t0 ), |ξ(τ ) − ξ(t0 ) − ξ(t also auch kx(τ ) − x(t0 )k ≤ kx(t ˙ 0 )k(τ − t0 ) + ǫ(τ − t0 ) ˙ ≤ ξ(t0 )(τ − t0 ) + ǫ(τ − t0 ) wegen (21) ≤ ξ(τ ) − ξ(t0 ) + 2ǫ(τ − t0 ). Wegen (23) f¨ ur t0 statt τ folgt kx(τ ) − x(s)k ≤ kx(τ ) − x(t0 )k + kx(t0 ) − x(s)k ≤ ξ(τ ) − ξ(t0 ) + 2ǫ(τ − t0 ) + ξ(t0 ) − ξ(s) + 2ǫ(t0 − s) = ξ(τ ) − ξ(s) + 2ǫ(τ − s). Also gilt (23) f¨ ur alle gen¨ ugend nah an t0 liegenden τ > t0 . Wegen der Definition von M und t0 = sup M muß dann t0 = t sein. Also gilt (23) f¨ ur τ = t. Da ǫ > 0 beliebig war, k¨onnen wir auf der rechten Seite zum Infimum u ⊓ ⊔ ¨bergehen und erhalten (22). ⊓ ⊔ Wir ziehen zun¨achst zwei Folgerungen f¨ ur reellwertige Funktionen. 5.35 Satz F¨ ur stetig differenzierbare Funktionen f : [α, ω] → R sind die folgenden Aussagen gleichwertig: (i) f ist im Intervall [a, b] ⊆ [α, ω] monoton wachsend (bzw. fallend), d.h., a≤s≤t≤b



(ii) F¨ ur alle t ∈ [a, b] gilt f ′ (t) ≥ 0

f (s) ≤ f (t) (bzw. f (s) ≥ f (t)).

(bzw. f ′ (t) ≤ 0).

Beweis. Gilt (i), so ist f [s, t] = (f (t) − f (s))/(t − s) ≥ 0 (bzw. ≤ 0) f¨ ur s 6= t, wegen der Stetigkeit der Steigung also auch f¨ ur s = t; daher gilt (ii). Gilt umgekehrt (ii), so folgt (i) aus Satz 5.34 mit ξ(t) := ±f (t) und x(t) := 0. ⊓ ⊓ ⊔ ⊔ 5.36 Satz Jede stetig differenzierbare Funktion f : [α, ω] → R mit f ′ (t) > 0 f¨ ur t ∈ [α, ω] ist injektiv; die durch f (g(x)) = x definierte inverse Funktion g : [f (α), f (ω)] → [α, ω] ist ebenfalls stetig differenzierbar, und es gilt g ′ (x) = 1/f ′ (g(x)).

(24)

¨ KAPITEL 5. RAUME UND WEGE

80

Beweis. Nach Satz 5.35 ist f monoton wachsend. W¨are f nicht injektiv, so w¨are f (s) = f (t) mit α ≤ s < t ≤ ω. Dann w¨are f (τ ) = f (t) f¨ ur τ ∈ [s, t]

(25)

wegen f (s) ≤ f (τ ) ≤ f (t) = f (s). Also w¨are f [τ, t] = 0 f¨ ur τ ∈ [s, t]; wegen der Stetigkeit ′ der Steigung also auch f (t) = f [t, t] = 0; Widerspruch. Daher ist f injektiv. Wegen der Monotonie von f ist f (α) ≤ f (t) ≤ f (ω) f¨ ur t ∈ [α, ω], und wegen dem Zwischenwertsatz wird jeder Wert zwischen f (α) und f (ω) von f angenommen, also ist [f (α), f (ω)] das Bild von f . Auf diesem Intervall existiert die inverse Funktion g. Wegen f [g(x), g(y)] (g(x) − g(y)) = f (g(x)) − f (g(y)) = x − y ist g(x) − g(y) = g[x, y] (x − y) mit der stetigen Steigung g[x, y] = 1/f [g(x), g(y)]; also ist g stetig differenzierbar, und f¨ ur x = y ergibt sich (24). ⊓ ⊓ ⊔ ⊔ Ist x : [α, ω] → V ein C 1 -Weg (z. B. im ”Ortsraum”), so ist v : [α, ω] → V mit v(t) := x(t) ˙ stetig, also wieder ein Weg (im ”Geschwindigkeitsraum”). Als Umkehrung der Ableitung behandeln wir nun die Integration, die von v zur¨ uck auf x f¨ uhrt. 5.37 Definition Ein Weg v : [α, ω] → V heißt integrierbar, falls es einen C 1 -Weg x : [α, ω] → V mit x(t) ˙ = v(t) f¨ ur t ∈ [α, ω] gibt. Der Weg x heißt dann eine Stammfunktion von v. 5.38 Bemerkung. In Satz 13.40 wird gezeigt, daß jeder Weg integrierbar ist. 5.39 Satz (i) Zwei Stammfunktionen eines Weges unterscheiden sich nur um eine Konstante. (ii) Ist v : [α, ω] → V integrierbar und a, b ∈ [α, ω], so ist das durch Z b v(t) dt := x(b) − x(a) a

definierte bestimmte Integral unabh¨angig von der Wahl der Stammfunktion x von v. Beweis. Sind y und z Stammfunktionen von v, so wenden wir Satz 5.34 mit x(t) = y(t)−z(t) und ξ(t) = 0 an. Es ist x(t) ˙ = y(t) ˙ − z(t) ˙ = v(t) − v(t) = 0, also gilt (21). Daraus folgt mit (22) kx(t) − x(α)k ≤ 0, also ist x(t) = x(α) =const. unabh¨angig von t, und y(t) = z(t) + x(t) = z(t)+ const. Daher gilt (i), und (ii) folgt unmittelbar, da sich die Konstante heraushebt. ⊓ ⊓ ⊔ ⊔ 5.40 Konvention x(a) =: x(t) |t=a =: [x(t)]t=a , t=b =: x(t) |ba = [x(t)]ba x(b) − x(a) =: x(t) |t=a

81 5.41 Proposition (Elementare Integrationsregeln) F¨ ur integrierbare Wege v, w : [α, ω] → V und a, b, c ∈ [α, ω], γ ∈ C gilt: Rb Rb Rb (i) a (v(t) + w(t)) dt = a v(t) dt + a w(t) dt, Rb

Rb

Rb

Rb v(t) dt = a v(t) dt, Rb Ra Ra (iii) a v(t) dt = 0, b v(t) dt = − a v(t) dt, Rb Rc Rc (iv) a v(t) dt + b v(t) dt = a v(t) dt, Rb (v) kv(t)k ≤ γ f¨ ur t ∈ ab ⇒ k a v(t) dtk ≤ γ|b − a| (ii)

a

γ v(t) dt = γ

a

v(t) dt,

a

(vi) Ist η : [α, ω] → R integrierbar und kv(t)k ≤ η(t) f¨ ur t ∈ [a, b], so ist Rb Rb k a v(t) dtk ≤ a η(t) dt.

(vii) Ist V = R und v(t) ≤ w(t) f¨ ur t ∈ [a, b] so ist Rb Rb v(t) dt ≤ a w(t) dt. a

Beweis. x sei Stammfunktion zu v und y sei Stammfunktion zu w. Wegen x˙ = v, y˙ = w ist dann (x + y)· = x˙ + y˙ = v + w und daher Rb (v(t) + w(t)) dt = (x + y) (b) − (x + y) (a) a Rb Rb = x(b) − x(a) + y(b) − y(a) = a v(t) dt + a w(t) dt.

Also gilt (i), und (ii) folgt ebenso. (iii) und (iv) ergeben sich direkt aus der Definition. (vi) ist nur eine Umformulierung von Satz 5.34, und (vii) ergibt sich f¨ ur v = 0 und w − v statt η. (v) ist der Spezialfall η(t) = γ von (vi), da ξ(t) = γt eine Stammfunktion von η ist. ⊓ ⊔ ⊔ ⊓ 5.42 Bemerkung. (i), (ii) und (vii) sind besonders charakteristisch f¨ ur Integrale (auch f¨ ur sp¨atere Verallgemeinerungen); man sagt, das Integral ist ein monotones lineares Funktional. 5.43 Satz (Substitutionsregel) Der Weg v : [α, ω] → V sei integrierbar, und ϕ : [a, b] → [α, ω] sei stetig differenzierbar. Dann ist (v ◦ ϕ) ϕ′ u ¨ ber [a, b] integrierbar, und es gilt: Z ϕ(b) Z b ′ v(t) dt. (26) v(ϕ(s)) ϕ (s) ds = a

ϕ(a)

Beweis. x sei Stammfunktion zu v und y := x ◦ ϕ. Nach der Kettenregel ist y˙ = (x˙ ◦ ϕ) ϕ˙ = (v ◦ ϕ) ϕ′ also ist Rb v(ϕ(s)) ϕ′ (s) ds = y(b) − y(a) a R ϕ(b) = x(ϕ(b)) − x(ϕ(a)) = ϕ(a) v(t) dt. ⊓ ⊔ ⊓ ⊔

¨ KAPITEL 5. RAUME UND WEGE

82

5.44 Konvention In Erweiterung der Notation ϕ′ (s) = d ϕ(s)/ds schreibt man oft d ϕ(s) ds statt ϕ′ (s) ds und ϕ(s) statt ϕ(s)−1 ds. Diese ”Differentiale”sind hier nur Abk¨ urzungen, bekommen aber sp¨ater (Kapitel 19) einen weitergehenden Sinn. Die Substitutionsregel l¨aßt sich mit Differentialen auf die ”triviale” Form Z Z v(ϕ) dϕ = v(t) dt bringen. 5.45 Satz (Partielle Integration) f : [α, ω] → K und g : [α, ω] → V seien stetig differenzierbar.Ist f ′ g integrierbar, so ist auch f g ′ integrierbar, und f¨ ur a, b ∈ [α, ω] ist Zb



f (t)g (t)dt

=

[f g]ba

a



Zb

f ′ (t)g(t)dt.

(27)

a

Beweis. h sei Stammfunktion von f ′ g. Dann gilt h′ = f ′ g und Zb

f ′ (t)g(t)dt

=

h(b) − h(a).

a

Wegen f g ′ = (f g)′ − f ′ g = (f g)′ − h′ = (f g − h)′ ist f g − h Stammfunktion von f g ′ , also Zb

f (t)g ′ (t)dt = (f g − h)(b) − (f g − h)(a) = (f g)(b) − (f g)(a) − (h(b) − h(a)),

a

⊓ ⊔

und daraus folgt (27). ⊓ ⊔

Als wichtigste Anwendung der partiellen Integration behandeln wir das Entwickeln von Funktionen in eine asymptotische Reihe. Dazu ben¨otigt man mehrfache Ableitungen, die wir zun¨achst definieren. 5.46 Definition (i) C 0 ([α, ω], V ) bezeichnet die Menge der Wege x : [α, ω] → V , und f¨ ur k ∈ N bezeichnet k C ([α, ω], V ) die Menge der stetig differenzierbaren Wege mit x˙ ∈ C k−1 ([α, ω], V ). Wege in C k ([α, ω], V ) heißen k-mal stetig differenzierbar oder kurz C k -Wege. (ii) Die k-te Ableitung eines C k -Weges x ist rekursiv definiert durch x(0) := x,

x(k) := x˙ (k−1)

f u¨r

k > 0.

Offensichtlich (Induktion) ist (x(k−1) )′ = x(k) und x(1) = x′ = x. ˙ Statt x(2) schreibt ′′ man meistens x¨ oder x .

83 (iii) Eine Funktion, die f¨ ur alle k ∈ N k-mal stetig differenzierbar ist, heißt beliebig oft differenzierbar, oder C ∞ - Funktion. 5.47 Satz (Taylorentwicklung um t0 ) f : [α, ω] → V sei n-mal stetig differenzierbar. F¨ ur t, t0 ∈ [α, ω] gilt dann die Beziehung f (t) =

n X f (k) (t0 )

k!

k=0

mit einem Restglied

(t − t0 )k + rn (t)

(28)

rn (t) = o((t − t0 )n ) f u¨r t → t0 .

(29)

rn (t) = O((t − t0 )n+1 ) f u¨r t → t0 .

(30)

Ist f sogar (n + 1)-mal stetig differenzierbar, so gilt f¨ ur das Restglied

Beweis. Offensichtlich gilt (28), wenn wir rn rekursiv durch r0 (t) := f (t) − f (t0 ),

rn (t) := rn−1 (t) −

f (n) (t0 ) (t − t0 )n n!

(31)

definieren, und (29) ergibt sich f¨ ur n=0 direkt aus der Stetigkeit von f . Wir zeigen nun induktiv die Beziehung Zt 1 rn (t) = f (n+1) (τ )(t − τ )n dτ ; (32) n! t0

f¨ ur n=0 ist das wegen f (t) − f (t0 ) = sich mit partieller Integration Zt

f

(n+1)

n

(τ )(t − τ ) dτ

=

Rt

t0

f ′ (τ )dτ richtig. Gilt (32) f¨ ur n − 1 statt n, so ergibt

n

[f (τ )(t −

=t τ )n ]ττ =t 0



Zt

f (n) (τ )n(t − τ )n−1 (−1)dτ

t0

t0

(32)

=

(31) −f (n) (t0 )(t − t0 )n + n!rn−1 (t) = n!rn (t).

Also gilt (32) allgemein. Ist f nun n-mal stetig differenzierbar, so gibt es eine Umgebung U von t0 mit k f (n) (t) − f (n) (t0 ) k≤ ε f¨ ur t ∈ U . Wegen rn (t)

(31)

=

(32)

=

1 rn−1 (t) − (n − 1)! 1 (n − 1)!

Zt

Zt

f (n) (t0 )(t − τ )n−1 dτ

t0

f (n) (τ ) − f (n) (t0 ))(t − τ )n−1 dτ

t0

ist in dieser Umgebung 1 k rn (t) k≤ (n − 1)!

Zt

t0

ε(t − τ )n−1 dτ =

ε (t − t0 )n n!

¨ KAPITEL 5. RAUME UND WEGE

84

und da ε > 0 beliebig war, folgt (29). Ist f sogar (n + 1)-mal stetig differenzierbar, so ist genauer f (n+1) (t0 ) (31) rn (t) = rn+1 (t) + (t − t0 )n+1 = O((t − t0 )n+1 ). ⊓ ⊔ (n + 1)! ⊓ ⊔

5.48 Beispiel. Die f¨ ur q ∈ Q durch f (t) := (1 + t)q definierte Funktion f :] − 1, ∞[ → R ist beliebig oft differenzierbar mit den Ableitungen   q (k) q−k (1 + t)q−k . (33) f (t) = q(q − 1) · ... · (q − (k − 1))(1 + t) = k! k  (Induktion!) Also ist f (k) (0)/k! = kq , und man erh¨alt durch Taylorentwicklung um t0 = 0 die Formel n   X q k q t + O(tn+1 ) f u¨r t → 0. (34) (1 + t) = k k=0

F¨ ur q = n ergibt sich die binomische Formel; wegen f (n+1) (t) = 0 und (32) verschwindet das Restglied.Falls q keine nat¨ urliche Zahl ist, macht man f¨ ur alle n einen Fehler.

F¨ ur n = 1 ergibt sich (1 + t)q = 1 + qt + O(t2 ), was den Fehler in der Bernoulli-Ungleichung n¨aher spezifiziert. Allgemein hat man f¨ ur den Linearisierungsfehler: Folgerung Ist f zweimal stetig differenzierbar, so gilt f (t) = f (t0 ) + f ′ (t0 )(t − t0 ) + O((t − t0 )2 ). ⊓ (35) ⊔ Falls f beliebig oft differenzierbar ist, gilt f¨ ur alle n die Relation f (t) =

n X k=0

ak (t − t0 )k + O((t − t0 )n+1 )

f¨ ur t → t0

(36)

mit ak := f (k) (t0 )/k!. Man schreibt daf¨ ur kurz f (t) ∼

∞ X k=0

ak (t − t0 )k

f¨ ur t → t0

(37)

und nennt (37) eine asymptotische Entwicklung von f . Die Umgebung, in der das Restglied in (36) eine vorgegebene H¨ochstgr¨oße hat, h¨angt von n ab. Es ist durchaus nicht immer so, daß man umso genauer wird, je gr¨oßer man n w¨ahlt; dies gilt nur, wenn die Ableitungen ”nicht zu stark wachsen”.

Kapitel 6 Lineare Algebra In diesem Kapitel verallgemeinern wir die in Beispiel 2.10(ii) gegebene Darstellung von linearen Selbstabbildungen des R2 durch Matrizen. Wir behandeln außerdem den Begriff der Dimension eines Vektorraums und ordnen mit Hilfe geeigneter Unterr¨aume jeder affinen Menge eine Dimension zu. Insbesondere sind Punkte, Geraden und Ebenen gerade die null-, ¨ ein-, bzw. zweidimensionalen affinen Mengen. Schließlich verschaffen wir uns einen Uberblick u ¨ber die m¨oglichen linearen Abbildungen zwischen endlich-dimensionalen Vektorr¨aumen und beschreiben sie mit Hilfe von Matrizen, Karten und Koordinatensystemen. Auf dieser Grundlage k¨onnen wir sp¨ater Funktionen, die von mehreren Variablen abh¨angen, in u ¨bersichtlicher Weise linearisieren (Kapitel 7), Gleichungssysteme mit vielen Variablen aufl¨osen (Kapitel 8) und (durch lineare Differentialgleichungen mit konstanten Koeffizienten beschriebene) schwingende Systeme analysieren (Kapitel 17). In diesem Kapitel sind alle Vektorr¨aume u ¨ber einem beliebigen K¨orper K. 6.1 Definition V sei Vektorraum. n X (i) Eine Summe der Form αk sk mit αk ∈ K heißt Linearkombination der Vektoren k=1

sk (k = 1 : n) oder der Menge {sk | k = 1 : n}. Die Linearkombination heißt affin, n n X X falls αk = 1. αk heißt der Koeffizient von sk in der Linearkombination αk sk . (Das k=1

k=1

Summenzeichen ist f¨ ur Vektoren ebenso definiert wie in Kapitel 4 f¨ ur Zahlen.) (ii) F¨ ur eine Teilmenge S von V heißt die Menge Span S := {

n X k=1

αk sk | sk ∈ S, αk ∈ K}

aller Linearkombinationen von Punkten aus S die lineare Hu ¨ lle (engl. span) von S. Statt U = Span S sagt man auch: U wird von S erzeugt oder aufgespannt. (iii) F¨ ur eine Teilmenge S von V heißt die Menge Aff S := {

n X k=1

αk sk | sk ∈ S, αk ∈ K, 85

n X k=1

αk = 1}

86

KAPITEL 6. LINEARE ALGEBRA

aller affinen Linearkombinationen von Punkten aus S die affine Hu ¨ lle von S. Statt M = Aff S sagt man auch: M wird von S affin erzeugt oder affin aufgespannt. 6.2 Beispiele. (i) Wir sind in Kapitel 2 schon mehrmals speziellen Linearkombinationen der Form αx + βy und αx + βy + γz begegnet. (ii) Geraden und Ebenen lassen sich jetzt in der Form Gxy = Aff{x, y},

Exyz = Aff{x, y, z}

schreiben. (iii) Ist S = {s1 , . . . , sn } eine endliche Menge, so ist Span S = {

n X k=1

αk sk | αk ∈ K},

da man die in einer Linearkombination nicht vorkommenden Elemente von S mit Koeffizient 0 ber¨ ucksichtigen kann. Insbesondere ist Span ∅ = {0} (leere Summe!). 6.3 Proposition A : V → W sei linear. F¨ ur beliebige αk ∈ K und sk ∈ V gilt dann n n X X A( αk sk ) = αk Ask . k=1

(1)

k=1

¨ Beweis. induktiv (Ubungsaufgabe).

⊓ ⊔

6.4 Definition (i) ek [im gebundenen Skript auch e(k) ] bezeichnet den kten Einheitsvektor in K n mit den Komponenten ( 1 falls j = k (2) (ek )j = δjk := 0 sonst. Den Ausdruck δjk in (2) nennt man das Kroneckersymbol. (ii) F¨ ur eine lineare Abbildung A : V → K m heißt die (lineare) Abbildung Aj: mit Aj: x := (Ax)j die jte Zeile von A, und man schreibt 

 A1:  .  A =  ..  . Am:

(iii) V ×n bezeichnet die Menge L(K n , V ) aller linearen Abbildungen A : K n → V . F¨ ur eine solche Abbildung A heißt der Vektor A:k := Aek ∈ V die kte Spalte von A, und man schreibt A = (A:1 | . . . | A:n ). (3)

87 (iv) Eine m × n-Matrix u ¨ ber K (Mehrzahl: Matrizen) ist eine lineare Abbildung A : n m K → K ; die Elemente Ajk := (A:k )j (j = 1 : m, k = 1 : n) heißen die Komponenten von A. Nach Weglassen u ussiger Klammern und Striche lassen sich m × n-Matrizen als ¨ berfl¨ rechteckige Schemata   A11 . . . A1n  .. ..  ...  . .  Am1 . . . Amn

mit m Zeilen und n Spalten schreiben. K m×n = (K m )×n = L(K n , K m ) bezeichnet die Menge aller m × n-Matrizen u ¨ ber K.

Wenn keine Verwechslungen zu bef¨ urchten sind, k¨onnen die senkrechten Striche in (3) auch durch Kommas oder Zwischenr¨aume ersetzt werden. Insbesondere bestehen V ×2 und V ×3 aus Paaren bzw. Tripeln von Punkten aus V . Die Notation ist daher vertr¨aglich mit der von Konvention 1.3(v). Die Notation, eine lineare Abbildung durch ihre Zeilen bzw. Spalten anzugeben, ist durch den folgenden Satz gerechtfertigt. 6.5 Satz (i) Eine lineare Abbildung A : V → K m ist durch ihre Zeilen festgelegt, und es gilt     A1: x A1:  .   .  Ax =  ..  x =  ..  . (4) Am:

Am: x

Umgekehrt ist die durch (4) definierte Abbildung A : V → K m linear, falls die einzelnen Zeilen Aj: beliebige lineare Abbildungen von V nach K sind. (ii) Eine lineare Abbildung A : K n → V ist durch ihre Spalten festgelegt, und es gilt 

 x1 n  ..  X Ax = (A:1 | . . . | A:n )  .  = A:k xk . xn

(5)

k=1

Umgekehrt ist die durch (5) definierte Abbildung A : K n → V linear, falls die einzelnen Spalten A:k beliebige Vektoren aus V sind. Außerdem gilt Range A = Span{A:1 , . . . , A:n }.

(6)

Beweis. (i) Gleichung (4) folgt direkt aus der Definition der Zeilen, und die Linearit¨at rechnet man leicht nach. n X (ii) Es ist x = xk ek , also k=1

Ax = A(

n X k=1

xk ek ) =

n X k=1

xk Aek =

n X k=1

xk A:k ,

88

KAPITEL 6. LINEARE ALGEBRA

und (5) ergibt sich, indem man die skalaren Koeffizienten hinten schreibt. Umgekehrt gilt f¨ ur die durch (5) definierte Abbildung A die Beziehung A(αx + βy) = =

n X

A:k (αx + βy)k =

k=1 n X

n X

A:k (αxk + βyk )

k=1

(αA:k xk + βA:k yk ) = α

k=1

n X

A:k xk + β

k=1

= αAx + βAy.

n X

A:k yk

k=1

⊓ ⊔

Daher ist A linear. Insbesondere (n = 1) ist f¨ ur eine lineare Abbildung A : K → V Ax = A:1 x f¨ ur alle x ∈ K.

Daher werden lineare Abbildungen A : K → V in der Regel mit den Vektoren A:1 ∈ V identifiziert. Insbesondere ist dann V ×1 = V und K m×1 = K m . Spaltenvektoren kann man also auch als Matrizen mit nur einer Spalte auffassen. Die Matrizen in K ×n = K 1×n haben nur eine Zeile und werden als Zeilenvektoren interpretiert; vgl. Beispiel 6.33 weiter unten. 6.6 Proposition Eine durch ihre Komponenten Ajk gegebene m × n-Matrix A hat die m Zeilenvektoren Aj: = (Aj1 , . . . , Ajn ) (j = 1 : m) als Zeilen und die n Spaltenvektoren 

 A1k  .  A:k =  .. 

(k = 1 : n)

Amk

als Spalten.

⊓ ⊔

Beweis. Klar.

Um die Bilder linearer Abbildungen beschreiben zu k¨onnen, brauchen wir den Begriffs des Unterraums. 6.7 Definition V sei Vektorraum. (i) Eine Teilmenge U von V heißt (linearer) Unterraum von V , falls u, v ∈ U ⇒ αu + βv ∈ U

f¨ ur alle α, β ∈ K.

(ii) Man schreibt Kx := {αx | α ∈ K}

x + N := {x + y | y ∈ N },

M + N := {x + y | x ∈ M, y ∈ N },

wobei x ∈ V und M , N Teilmengen von V sind.

(7)

89 6.8 Beispiele. (i) Der triviale Vektorraum {0} ist stets ein Unterraum von V .

(ii) Geraden und Ebenen lassen sich jetzt auch in der Form Gxy = x + K(y − x),

Exyz = x + K(y − x) + K(z − x)

schreiben. (iii) Geraden und Ebenen durch Null haben insbesondere die Form G0x = Kx = Span{x} und E0xy = Kx + Ky = Span{x, y}. (iv) x + N ist gerade das Bild von N unter der Translation um x. Unterr¨aume verhalten sich zu affinen Mengen genau wie lineare Abbildungen zu affinen Abbildungen (vgl. mit Satz 2.9): 6.9 Satz (i) Jeder Unterraum ist affin. (ii) Eine affine Menge ist genau dann ein Unterraum, wenn sie die Null enth¨alt. (iii) Eine Menge M ist genau dann affin, wenn sie sich als Translation eines Unterraums darstellen l¨aßt. Dieser Unterraum ist durch M eindeutig bestimmt. Beweis. (i) Klar, da f¨ ur affine Mengen (7) nur f¨ ur α + β = 1 verlangt wird. (ii) Jeder Unterraum ist affin und enth¨alt die Null. Ist umgekehrt U eine affine Menge und 0 ∈ U , so ist mit x ∈ U jedes Vielfache αx = αx + (1 − α)0 ∈ U . Also liegen f¨ ur x, y ∈ U auch 2αx und 2βy in U , und daher auch deren affinen Linearkombinationen αx + βy = 12 (2αx) + 12 (2βy). Daher gilt (7), d.h. U ist Unterraum. (iii) Das Bild einer affinen Menge unter einer Translation ist wieder affin; also ist jede Translation eines Unterraums affin. Umgekehrt kann man jede affine Menge M durch Translation in die affine Menge U = −x + M u uhren, und f¨ ur x ∈ M ist 0 ∈ U . Also ist U ein ¨berf¨ Unterraum, und M = x + U . Ist M Translation des Unterraums U um x und Translation des Unterraums U ′ um x′ , so ist M = x + U = x′ + U ′ , also U ′ = x − x′ + U . Wegen 0 ∈ U ′ ist 0 = x − x′ + u mit u ∈ U ; daher ist x − x′ = −u und U ′ = −u + U ⊆ U + U = U . Also ist U ′ ⊆ U , und U ⊆ U ′ folgt analog. Daher ist U ′ = U , d.h. U ist eindeutig bestimmt. ⊓ ⊔ 6.10 Proposition (i) Ein Unterraum eines Vektorraums ist selbst ein Vektorraum. (ii) Sind U1 und U2 Unterr¨aume, so sind auch U1 ∩ U2 und U1 + U2 Unterr¨aume. Es gilt U1 ∩ U2 ⊆ Uj ⊆ U1 + U2

f¨ ur j = 1, 2.

(8)

Beweis. (i) Ist U Unterraum eines Vektorraums V , so sind Summe und Differenz, α-Faches und die Null in U (α = 1, β = ±1, bzw. α = 1, β = 0, bzw. α = β = 0), und die Rechenregeln gelten, weil sie schon in V gelten. (ii) Sind x, y ∈ U1 ∩ U2 , so sind x und y in U1 und U2 , also ist auch αx + βy in U1 und U2 . Daher liegt αx + βy in U1 ∩ U2 , d.h. U1 ∩ U2 ist Unterraum. Sind z, z ′ ∈ U1 + U2 , so ist z = x+y, z ′ = x′ +y ′ mit x, y ∈ U1 und x′ , y ′ ∈ U2 . Also ist αz +βz ′ = α(x+y)+β(x′ +y ′ ) =

90

KAPITEL 6. LINEARE ALGEBRA

(αx + βy) + (αx′ + βy ′ ) ∈ U1 + U2 , d.h. U1 + U2 ist Unterraum. (8) ist offensichtlich wegen 0 ∈ U1 und 0 ∈ U2 . ⊓ ⊔ 6.11 Proposition A : V → W sei linear.

(i) Range A = {Ax | x ∈ V } ist Unterraum von W .

(ii) Ist b ∈ Range A, so ist {x ∈ V | Ax = b} eine affine Teilmenge von V . (Ist b 6∈ Range A, so ist {x ∈ V | Ax = b} nat¨ urlich leer.)

Beweis. (i) Sind y, y ′ ∈ Range A, so ist y = Ax und y ′ = Ax′ mit x, x′ ∈ V , also αy + α′ y ′ = αAx + α′ Ax′ = A(αx + α′ x′ ) ∈ Range A. Als Teilmenge des Vektorraums W ist Range A also Unterraum von W . (ii) Die Menge M := {x ∈ V | Ax = b} liegt offensichtlich in V . Ist b ∈ Range A, so ist M nach Definition von Range A nicht leer. Ist x, x′ ∈ M , so ist Ax = b und Ax′ = b, also A(αx + α′ x′ ) = αAx + α′ Ax′ = αb + α′ b = b, falls α + α′ = 1. In diesem Fall ist also αx + α′ x′ ∈ M . Daher ist M affin. ⊓ ⊔ Der Fall b = 0 ist besonders wichtig: 6.12 Definition A : V → W sei linear. Dann heißt Null A := {x ∈ V | Ax = 0}

(9)

der Nullraum von A. Ein anderer gebr¨auchlicher Name daf¨ ur ist Kern von A; dann schreibt man Ker A statt Null A. 6.13 Proposition A : V → W sei linear. (i) Null A ist Unterraum von V .

(ii) x und x′ haben genau dann dasselbe Bild, wenn x − x′ ∈ Null A.

(iii) A ist genau dann injektiv, wenn Null A = {0}.

Beweis. (i) Null A ist nach der vorigen Proposition affin und enth¨alt die Null, ist also nach Satz 6.9 ein Unterraum. (ii) x und x′ haben genau dann dasselbe Bild, wenn Ax = Ax′ . Das ist gleichwertig zu A(x − x′ ) = Ax − Ax′ = 0, also zu x − x′ ∈ Null A. (iii) Ist A injektiv, so hat 0 h¨ochstens ein Urbild x mit Ax = 0, also enth¨alt Null A h¨ochstens ein Element. Die Null liegt aber drin; also ist Null A = {0}. Ist umgekehrt Null A = {0} und sind x, x′ Urbilder desselben Punkts, so ist x − x′ ∈ Null A, also x − x′ = 0, d.h. x = x′ . Daher ist A injektiv. ⊓ ⊔ 6.14 Proposition S sei Teilmenge des Vektorraums V . (i) Span S ist stets ein Unterraum.

91 (ii) Ist U ein Unterraum und S ⊆ U , so ist Span S ⊆ U , d.h. U enth¨alt alle Linearkombinationen von Punkten von S. (iii) F¨ ur alle x ∈ V gilt x + Aff S = Aff(x + S).

(iv) Aff S ist stets affin.

(v) Ist M affin und S ⊆ M , so ist Aff S ⊆ M , d.h. M enth¨alt alle affinen Linearkombinationen von Punkten von S. Beweis. (i) Sind x, y ∈ Span S, so lassen sich x und y als Linearkombination von Punkten von S schreiben. Indem man ggf. weitere Punkte mit Koeffizienten Null dazunimmt, kann man x und y als Linearkombination derselben Punkte sk ∈ S darstellen, x=

n X

γk s k ,

y=

k=1

Nun ist αx + βy = α

n X k=1

γk s k + β

n X

n X

δk sk .

k=1

δk sk =

k=1

n X

(αγk + βδk )sk . Daher ist auch αx + βy eine

k=1

Linearkombination der sk . Also ist Span S ein Unterraum. (ii) Wir zeigen induktiv, daß jede Linearkombination z=

n X

αk sk

(10)

k=1

von n Punkten sk ∈ U in U liegt. F¨ ur n = 0 ist die Summe leer, also z = 0 ∈ U . Angenommen, wir wissen schon, daß jede Linearkombination mit n − 1 Summanden in U n−1 X liegt. Wir schreiben dann (10) als z = αk sk + αn sn ; da beide Summanden in U liegen, k=1

liegt z in U , und die Aussage gilt allgemein.

(iii) Translation einer affinen Linearkombination z=

n X

αk sk ,

k=1

n X

αk = 1

k=1

der sk ∈ S um x ergibt

n n n X X X x+z =( αk )x + αk sk = αk (x + sk ), k=1

k=1

k=1

und das ist eine affine Linearkombination der x + sk ∈ x + S.

(iv) und (v) folgen wegen (iii) und Satz 6.9(iii) durch Translation aus (i) und (ii).

⊓ ⊔

Aus Beispiel 6.8(iii) und Proposition 6.14(i) ergibt sich sofort, daß f¨ ur x, y ∈ V die Geraden Kx = G0x durch Null (x 6= 0) und die Ebenen Kx + Ky = E0xy durch Null (x 6k y) Unterr¨aume sind. Im Unterschied zu Proposition 6.10(ii) ist die Vereinigung von zwei Unterr¨aumen normalerweise kein Unterraum mehr (Beispiel: Vereinigung von zwei verschiedenen Geraden Rx und Ry im R2 ).

92

KAPITEL 6. LINEARE ALGEBRA

Proposition 6.14(i) wirft die Frage auf, welche Unterr¨aume von endlichen Mengen S erzeugt werden k¨onnen. Das f¨ uhrt unmittelbar auf den Dimensionsbegriff. 6.15 Definition (i) Ein Vektorraum V heißt endlich-dimensional, falls die durch dim V := min{|S| | Span S = V }

(11)

definierte Dimension von V endlich ist, andernfalls unendlich-dimensional. Ist dim V = n, so sagt man genauer, V sei n-dimensional. (ii) Jede Teilmenge S eines endlich-dimensionalen Vektorraums V mit |S| = dim V und Span S = V heißt Basis von V . (iii) Die Dimension einer affinen Menge M ist definiert als die Dimension des nach Satz 6.9(iii) eindeutig bestimmten Unterraums, aus dem M durch Translation hervorgeht. Nach Definition der Dimension hat jeder endlich-dimensionale Vektorraum eine Basis. 6.16 Proposition A : K n → V sei eine lineare Abbildung. (i) Ist A surjektiv, so ist dim V ≤ n. (ii) Ist A injektiv, so ist dim V ≥ n.

(iii) Ist A bijektiv, so ist dim V = n. Beweis. (i) Ist A surjektiv, so wird V = Range A von der aus den n Spalten von A bestehenden Menge S aufgespannt. Nach Definition der Dimension ist dim V dann h¨ochstens n. (ii) Angenommen, es w¨are m := dim V < n. Unter allen m¨oglichen Basen S = {s1 , . . . , sm } w¨ahlen wir eine solche, wo sk = A:k f¨ ur k = 1 : p (12) mit m¨oglichst großem p gilt. Offensichtlich ist 0 ≤ p ≤ m < n. Die (p + 1)te Spalte A:p+1 von A liegt in V , l¨aßt sich also wegen Span S = V als Linearkombination der sk schreiben. Bezeichnen wir die Koeffizienten mit uk (∈ K), so ist A:p+1 =

m X

uk s k .

k=1

W¨are uk = 0 f¨ ur alle k > p (wir beginnen hier einen zweiten Widerspruchsbeweis innerhalb des ersten), so w¨are wegen (12) Aep+1 = A:p+1 =

p X

uk s k =

k=1

Da A injektiv ist, folgt ep+1 =

p X

p X k=1

uk A:k =

p X k=1

uk Aek = A

p X

uk ek .

k=1

uk ek . Vergleich der (p + 1)ten Komponenten ergibt nun

k=1

den Widerspruch 1 = 0. Also ist unsere Annahme (f¨ ur den zweiten Widerspruchsbeweis, uk = 0 f¨ ur alle k > p) falsch, d.h. es gibt es ein k > p mit uk 6= 0. Indem wir ggf. up+1 , sp+1 und uk , sk vertauschen, k¨onnen wir erreichen, daß up+1 6= 0 ist.

93 Nun ist jedes x ∈ V wegen Span S = V als Linearkombination X x= αk sk

darstellbar, und f¨ ur beliebige λ ∈ K ist X X X x= αk sk + λ(A:p+1 − uk s k ) = (αk − λuk )sk + λA:p+1 .

F¨ ur die spezielle Wahl λ = αp+1 /up+1 wird der Koeffizient von sp+1 Null; dann ist also X x= (αk − λuk )sk + λA:p+1 . k6=p+1

Also liegt x in Span S ′ mit S ′ := (S\{sp+1 }) ∪ {A:p+1 }. Da x ∈ V beliebig war, wird V auch von S ′ erzeugt. Dem widerspricht aber, daß p mit (12) m¨oglichst groß gew¨ahlt war. Also ist unsere Annahme (im ¨außeren Widerspruchsbeweis, dim V < n) falsch, d.h. es ist dim V ≥ n. (iii) folgt sofort aus (i) und (ii).

⊓ ⊔

Die Dimension gibt also an, wie groß ein Standardvektorraum sein muß, damit er surjektiv auf V abgebildet werden kann, bzw. wie groß ein Standardvektorraum sein darf, damit er in V injektiv eingebettet werden kann. Der bijektive Fall beschreibt in diesem Sinn gleichgroße Vektorr¨aume. 6.17 Definition V sei ein Vektorraum. (i) Ein Isomorphismus A : K n → V heißt (geradlinige) Karte von V .

(ii) Ein Isomorphismus φ : V → K n heißt (geradliniges) Koordinatensystem von V . Wegen Proposition 6.16(iii) muß die Zahl n in dieser Definition gerade die Dimension von V sein. Eine Karte beschriftet sozusagen jeden Punkt des K n (die richtige Vorstellung f¨ ur den K n ist hier ein unendlich ausgedehntes Blatt Papier) mit der Angabe des zugeh¨origen Punktes im Raum, wie es eine Landkarte im groben auch tut. Umgekehrt liefert ein Koordinatensystem zu jedem Punkt im Raum einen entsprechenden Vektor von Koordinaten, mit dem man den Punkt auf einer Karte lokalisieren kann. In der linearen Algebra sind Karten und Koordinatensysteme stets geradlinig. (Krummlinige Karten und Koordinatensysteme werden f¨ ur gekr¨ ummte Fl¨achen wie z.B. die Erdoberfl¨ache und f¨ ur gekr¨ ummte R¨aume ben¨otigt und spielen in der Differentialgeometrie und der allgemeinen Relativit¨atstheorie eine wichtige Rolle; vgl. Kapitel 24.) 6.18 Satz V sei Vektorraum. (i) Eine Teilmenge S = {s1 , . . . , sn } von V mit n Elementen ist genau dann eine Basis, wenn A := (s1 | . . . |sn ) eine Karte von V ist.

(ii) Eine lineare Abbildung A : K n → V ist genau dann eine Karte von V , wenn die Spalten von A eine Basis von V bilden.

94

KAPITEL 6. LINEARE ALGEBRA

(iii) Eine lineare Abbildung A : K n → V ist genau dann eine Karte von V , wenn φ := A−1 ein Koordinatensystem von V ist. (iv) Jeder endlich-dimensionale Vektorraum besitzt eine Karte und ein Koordinatensystem. Beweis. (i) A ist eine Abbildung von K n nach V . A ist also genau dann eine Karte von V , wenn A bijektiv ist. Ist A bijektiv, so ist dim V = n nach Proposition 6.16(iii), also |S| = n = dim V , und nach (6) ist Span S = Range A = V . Also ist S eine Basis von V . Ist umgekehrt S eine Basis von V , so m¨ ussen wir zeigen, daß A bijektiv ist, also injektiv und surjektiv. W¨are A nicht injektiv, so g¨abe es einen Vektor u 6= 0 in Null A. Dieser Vektor muß mindestens eine Komponente uj 6= 0 enthalten. Wir zeigen, daß sj in S u ussig ist. ¨berfl¨

Jedes x ∈ V l¨aßt sich wegen Span S = V als Linearkombination X x= αk sk schreiben. Nun ist 0 = Au = x=

P

X

A:k uk =

P

uk sk , also auch

X X αk sk − λ( uk s k ) = (αk − λuk )sk

f¨ ur beliebige λ ∈ K. F¨ ur die spezielle Wahl λ = αj /uj wird der Koeffizient von sj Null; dann ist also X x= (αk − λuk )sk ∈ Span(S\{sj }). k6=j

Da x ∈ V beliebig war, folgt Span(S\{sj }) = V . Aber |S\{sj }| < |S|, im Widerspruch zur Definition der Dimension. Also ist A injektiv. Wegen (6) ist Range A = Span S = V ; daher ist A auch surjektiv. Also ist A bijektiv und daher eine Karte von V . (ii) ist nur eine Umformulierung von (i). (iii) A : K n → V ist genau dann bijektiv, also ein Isomorphismus, also eine Karte, wenn die Umkehrabbildung A−1 : V → K n bijektiv ist, also ein Isomorphismus, also ein Koordinatensystem. (iv) Nach Definition der Dimension gibt es ein S mit Span S = V und |S| = n = dim V . Dieses S ist eine Basis. Eine zugeh¨orige Karte A bekommt man daraus mit (i), und das zugeh¨orige Koordinatensystem mit (iii). ⊓ ⊔ Karten und Koordinatensysteme sind also zueinander inverse Abbildungen; das zu einer Karte A geh¨orige Koordinatensystem ist φ = A−1 , und die zum Koordinatensystem φ geh¨orige Karte ist A = φ−1 . Eine Karte oder das zugeh¨orige Koordinatensystem bestimmt die Basis (als die Spalten der Karte); die Basis bestimmt die Karte (und das zugeh¨orige Koordinatensystem) erst dann eindeutig, wenn eine Reihenfolge f¨ ur die Basisvektoren festgelegt ist. Außer im trivialen Fall V = {0} hat ein Vektorraum keine eindeutige Basis, Karte und Koordinatensystem.

95 6.19 Beispiel. Die in Definition 6.4(i) definierten Einheitsvektoren e1 , . . . , en bilden eine Basis von K n , die sogen. Standardbasis. Die ek sind n¨amlich die Spalten der Identit¨at, die offenbar eine Karte von K n ist. Die Vektoren −e1 , . . . , −en sind die Spalten von −I, was auch eine Karte ist; diese bilden daher eine weitere Basis. Basis und Karte sind also nicht eindeutig bestimmt. Satz 6.18(iv) besagt, daß jeder endlich-dimensionale Vektorraum isomorph zu einem Standardvektorraum K n ist. (Das ist mit ein Grund daf¨ ur, daß die Anschauung aus dem 2 3 R und R f¨ ur beliebige endlich-dimensionale Vektorr¨aume tragf¨ahig ist. F¨ ur unendlichdimensionale Vektorr¨aume muß man besser aufpassen, da gilt nicht mehr alles, was im endlich-dimensionalen richtig ist; vgl. Kapitel 13.15-13.20.) 6.20 Satz (i) Ein Vektorraum ist genau dann n-dimensional, wenn er zu K n isomorph ist. Insbesondere ist dim K n = n. (ii) Zwei endlich-dimensionale Vektorr¨aume sind genau dann isomorph, wenn sie dieselbe Dimension haben. Beweis. (i) Ist V n-dimensional, so gibt es eine Karte A : K n → V . A ist Isomorphismus, also sind V und K n isomorph. Ist umgekehrt V zu K n isomorph, so gibt es einen Isomorphismus A : K n → V . A ist bijektiv, also ist dim V = n nach Proposition 6.16(iii). Da die Identit¨at eine bijektive lineare Abbildung von K n nach V = K n ist, folgt insbesondere dim K n = n. (ii) Sind V und W endlich-dimensional mit Dimensionen m = dim V und n = dim W , so gibt es Karten A : K m → V und B : K n → W .

Ist m = n, so kann man φ := BA−1 bilden. φ ist ein Isomorphismus von V nach W ; also sind V und W isomorph. Sind umgekehrt V und W isomorph, so gibt es einen Isomorphismus φ : V → W . Nun ist φ ◦ A : K m → W ein Isomorphismus, also dim W = m = dim V nach Proposition 6.16(iii). ⊓ ⊔ 6.21 Beispiele. (i) Punkte haben Dimension 0: Wegen K 0 = {0} gilt n¨amlich dim{0} = 0, und durch Translation ergibt sich der Allgemeinfall. (ii) Geraden haben Dimension 1: Die durch Aα := αx definierte Abbildung A : K → Kx ist surjektiv, und f¨ ur x 6= 0 auch injektiv. A ist dann also eine Karte von Kx. Daher ist dim(Kx) = 1, falls x 6= 0, und durch Translation ergibt sich wieder der Allgemeinfall.  (iii) Ebenen haben Dimension 2: Die durch A αβ := αx+βy definierte Abbildung A : K 2 → Kx + Ky ist surjektiv, und f¨ ur x 6k y auch injektiv (warum?). A ist dann also eine Karte von Kx + Ky. Daher ist dim(Kx + Ky) = 2, falls x 6k y, und durch Translation ergibt sich wieder der Allgemeinfall. (iv) Der Vektorraum K m×n = L(K n , K m ) der m×n-Matrizen hat die Dimension dim K m×n = mn. Die durch Φ(x)jk := xj+m(k−1) (13) definierte Abbildung Φ : K mn → K m×n ist n¨amlich eine Karte. (Die Abbildung zerlegt x in Spalten der L¨ange m, die dann nebeneinandergeh¨angt werden; die kte Spalte von Φ(x) ist Φ(x):k = x1+m(k−1):mk . Man pr¨ ufe die Karteneigenschaft nach!)

96

KAPITEL 6. LINEARE ALGEBRA

Kartenwechsel (oder Basiswechsel) entsprechen einem Wechsel des Koordinatensystems und k¨onnen durch sogenannte regul¨are Matrizen beschrieben werden. 6.22 Definition (i) Eine m × n-Matrix A heißt quadratisch, falls m = n.

(ii) Eine quadratische Matrix A heißt regul¨ ar (oder nichtsingul¨ ar), falls A bijektiv, d.h. ein Automorphismus von K n ist. Andernfalls heißt A singul¨ ar. (F¨ ur nichtquadratische Matrizen sind diese Begriffe nicht definiert; eine regul¨are bzw. singul¨are Matrix ist also immer quadratisch.) 6.23 Satz (i) Sind φ, φ′ : V → K n zwei Koordinatensysteme von V , so gibt es eine (eindeutig bestimmte) regul¨are Matrix A ∈ K n×n , derart, daß φ′ = A ◦ φ.

(14)

(ii) Ist umgekehrt φ : V → K n ein Koordinatensystem von V und ist A ∈ K n×n regul¨ar, so ist auch das durch (14) definierte φ′ ein Koordinatensystem von V . Man nennt (14) eine (lineare) Koordinatentransformation. φ .. V ........................................................................................... K n ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... ... ′ ........ ... ..... ... ..... ..... ... ..... ... ..... .. ..... ..... ......... ..... .. ....... . . .. ................ ..

A

φ

Kn Beweis. (i) Da φ und φ′ bijektive lineare Abbildungen sind, gilt dasselbe f¨ ur A := φ′ ◦ φ−1 , n n×n was zu (14) ¨aquivalent ist. Da A den K auf sich abbildet, ist A ∈ K , und als bijektive Abbildung ist A regul¨ar. (ii) Da φ und A bijektive lineare Abbildungen sind, gilt dasselbe f¨ ur φ′ = A◦φ. Als bijektive n ′ lineare Abbildung von V nach K ist φ ein Koordinatensystem von V . ⊓ ⊔ ¨ Ahnliche Situationen wie im Beweis der S¨atze 6.16 und 6.18 treten immer wieder auf, und es hat sich eingeb¨ urgert, daf¨ ur besondere Begriffe zu verwenden. P 6.24 Definition (i) Eine Linearkombination αk sk heißt nichttrivial, falls mindestens ein αj 6= 0 ist.

(ii) s1 , . . . , sn heißen linear abh¨ angig, falls eine nichttriviale Linearkombination der sk verschwindet. Ist das nicht der Fall, d.h. gilt n X

αk sk = 0

k=1



alle αk = 0,

so heißen s1 , . . . , sn linear unabh¨ angig. (iii) Ein Punkt x heißt linear abh¨ angig von S, falls x ∈ Span S, und linear unabh¨ angig von S, falls x 6∈ Span S.

97 6.25 Satz V sei Vektorraum. (i) Eine lineare Abbildung A : K n → V ist genau dann surjektiv, wenn V von den Spalten von A erzeugt wird. (ii) Eine lineare Abbildung A : K n → V ist genau dann injektiv, wenn die Spalten von A linear unabh¨angig sind. (iii) Eine Menge S ist genau dann eine Basis von V , wenn V von S erzeugt wird und die Elemente von S linear unabh¨angig sind. Beweis. (i) folgt sofort aus (6). (ii) A ist genau dann injektiv, wenn Null A = {0}. Der Nullraum besteht aber aus allen P n x ∈ K mit 0 = Ax = A:k xk , ist also genau dann {0}, wenn aus dieser Beziehung folgt, daß alle xk verschwinden, d.h. wenn die Spalten A:k linear unabh¨angig sind. ⊓ ⊔

(iii) folgt wegen Satz 6.18(ii) aus (i) und (ii).

6.26 Proposition V sei Vektorraum. (i) Eine Darstellung x=

n X

αk sk

(15)

k=1

eines Punkts x ∈ V als Linearkombination von s1 , . . . , sn ist genau dann eindeutig bestimmt, wenn s1 , . . . , sn linear unabh¨angig sind. (ii) Gilt n X

αk sk = 0

(16)

k=1

und ist αj 6= 0, so ist sj von den sk (k 6= j) linear abh¨angig.

(iii) s1 , . . . , sn , s∗ sind genau dann linear unabh¨angig, wenn s1 , . . . , sn linear unabh¨angig sind und s∗ linear unabh¨angig von s1 , . . . , sn ist. (iv) Sind die Elemente einer endlichen Teilmenge S eines Vektorraums linear unabh¨angig, so ist dim Span S = |S|. P Beweis. (i) Ist x =P αk′ sk eine zweite Darstellung von x als Linearkombination der sk , ur so ist 0 = x − x = (αk′ − αk )sk . Sind die sk linear unabh¨angig, so folgt 0 = αk′ − αk f¨ f¨ ur alle k. Sind die sk aber linear abh¨angig, so gibt es eine nichttriviale alle k, also αk′ = αk P Linearkombination βk sk = 0. Aus (15) erh¨alt man dann eine zweite Darstellung x = P (αk + βk )sk mit den Koeffizienten αk′ = αk + βk . Da nicht alle βk verschwinden, ist diese Darstellung von der in (15) verschieden, die Darstellung ist also nicht eindeutig. (ii) Es ist dann n¨amlich

1 sj = sj − αj

n X k=1

αk sk

!

=−

X αk k6=j

αj

sk .

98

KAPITEL 6. LINEARE ALGEBRA

(iii) Sind s1 , . . . , sn , s∗ linear unabh¨angig, so folgt aus n X

αk sk + α∗ s∗ = 0,

(17)

k=1

daß alle αk und α∗ verschwinden. F¨ ur α∗ = 0 ergibt sich die lineare Unabh¨angigkeit von s1 , . . . , sn , und f¨ ur α∗ = −1 folgt, daß s∗ von s1 , . . . , sn linear unabh¨angig ist.

Sind umgekehrt s1 , . . . , sn linear unabh¨angig, so kann (17) keine nichttriviale L¨osung mit α∗ = 0 besitzen. Eine L¨osung mit α∗ 6= 0 kann es aber nach (ii) auch nicht geben, wenn s∗ außerdem linear unabh¨angig von s1 , . . . , sn ist. (iv) s1 , . . . , sn ∈ V seien linear unabh¨angig. Nach Satz 6.25(iii) ist s1 , . . . , sn eine Basis von Span S und daher dim Span S = n. ⊓ ⊔ 6.27 Folgerung (Koeffizientenvergleich) Sind s1 , . . . , sn linear unabh¨angig, so folgt aus der Gleichheit n X

αk sk =

k=1

n X

βk sk ,

k=1

zweier Linearkombinationen die Gleichheit der Koeffizienten, αk = βk Beweis. Direkt aus Proposition 6.26(i).

f¨ ur k = 1, . . . , n. ⊓ ⊔

6.28 Satz (i) Die Dimension eines Vektorraums V ist das Supremum aller n, f¨ ur die es n linear unabh¨angige Vektoren in V gibt. (ii) Jede linear unabh¨angige Teilmenge eines endlich-dimensionalen Vektorraums l¨aßt sich zu einer Basis erg¨anzen. Beweis. s1 , . . . , sn ∈ V seien linear unabh¨angig. Ist V = Span{s1 , . . . , sn }, so ist dim V = n nach Proposition 6.26(iv). Andernfalls gibt es ein sn+1 ∈ V \ Span{s1 , . . . , sn }, und wegen Proposition 6.26(iii) ist auch s1 , . . . , sn , sn+1 linear unabh¨angig. Endet dieser Erg¨anzungsprozess, so hat man eine Basis gefunden, und V ist endlichdimensional. Endet er nicht, so hat man f¨ ur alle n linear unabh¨angige s1 , . . . , sn ∈ V (man kann immer mit n = 0 anfangen!), und es bleibt zu zeigen, daß V dann unendlichdimensional ist. Die Matrix A = (s1 | . . . |sn ) hat linear unabh¨angige Spalten, ist nach Satz 6.25 also injektiv. Aus Satz 6.16 folgt damit dim V ≥ n. Da n beliebig groß gew¨ahlt werden kann, kann dim V nicht endlich sein. ⊓ ⊔ 6.29 Beispiel. Die Menge Pol(K) aller Polynome mit Koeffizienten aus K bilden einen ur Vektorraum (warum?). Ist K ein Zahlk¨orper, so sind die Polynome xk (k = 0, 1, . . . , n) f¨ alle n linear unabh¨angig.

99 Das ergibt sich induktiv aus



m m

= 1 und

n X

m k

  x =0 αk k k=0



= 0 f¨ ur ganzzahlige k > m. Ist n¨amlich f¨ ur alle x ∈ K,

und wissen wir schon, daß αk f¨ ur alle k < m verschwindet (sicher richtig f¨ ur m = 0), so folgt durch Einsetzen von x = m:   X   X   n n m m m αm = αm = αk = αk = 0. m k k k=m k=0 Also verschwindet αk f¨ ur alle k. F¨ ur Zahlk¨orper K ist Pol(K) ist also unendlich-dimensional. (Allgemeiner kann man zeigen, daß Pol(K) ein |K|-dimensionaler Vektorraum ist.) 6.30 Folgerung U sei Unterraum von V . (i) So ist dim U ≤ dim V . (ii) Ist dim U ≤ dim V < ∞, so ist U = V . Beweis. Ist dim U = ∞, so gibt es f¨ ur alle n nach Satz 6.28 n linear unabh¨angige Vektoren in U , und da diese auch in V liegen, ist auch dim V = ∞. Ist dim U = n endlich, so gibt es eine Karte A : K n → U . Diese bildet K n injektiv in V ab, und nach Proposition 6.16(ii) ist dim V ≥ n = dim U . ⊓ ⊔ 6.31 Satz V sei endlich-dimensionaler Vektorraum. Ist S eine Basis von V , so gilt (i) S erzeugt V , d.h. Span S = V , (ii) |S| = dim V ,

(iii) Die Elemente von S sind linear unabh¨angig, (iv) Jedes x ∈ V l¨aßt sich eindeutig als Linearkombination von S darstellen.

Umgekehrt gen¨ ugen (iv) oder zwei der Aussagen (i)–(iii), um zu sichern, daß eine Teilmenge S von V eine Basis von V ist. Beweis. Ist S eine Basis, so gelten (i) und (ii) nach Definition, (iii) folgt aus Satz 6.25(iii), und (iv) folgt aus Proposition 6.26(i) wegen (i) und (iii). Umgekehrt sei S = {s1 , . . . , sn } eine n-elementige Teilmenge von V , und A := (s1 | . . . |sn ).

Gilt (iv), so folgt, daß A eine bijektive Abbildung von K n nach V ist, da jedes y ∈ V sich n X eindeutig als Ax = xk sk schreiben l¨aßt. A ist also eine Karte, und S als Menge der k=1

Spalten von A eine Basis.

Gelten (i) und (ii), so ist S Basis nach Definition. Gelten (i) und (iii), so ist S Basis nach Satz 6.25.

100

KAPITEL 6. LINEARE ALGEBRA

Gelten (ii) und (iii), so k¨onnen wir S nach dem vorigen Satz zu einer Basis S ′ ⊇ S erweitern. Wegen |S ′ | = dim V = |S| ist aber S ′ = S, d.h. S ist schon eine Basis. ⊓ ⊔

6.32 Satz A sei lineare Abbildung von V nach W . Dann gilt die Dimensionsformel dim Def A = dim Range A + dim Null A.

(18)

Falls nicht alle Dimensionen endlich sind, ist das so zu verstehen, daß dann dim Def A und mindestens eine von dim Range A und dim Null A unendlich ist. Beweis. Ist dim Null A = ∞ so ist wegen Null A ⊆ Def A auch dim Def A = ∞. Ist dim Null A = m endlich, so w¨ahlen wir eine Basis s1 , . . . , sm von Null A; dann sind s1 , . . . , sm linear unabh¨angige Vektoren von V . Ist dim Def A = n endlich, so erg¨anzen wir diese Vektoren zu einer Basis s1 , . . . , sn von Def A; ist dim Def A = ∞, so erg¨anzen wir statt dessen zu linear unabh¨angigen s1 , . . . , sn f¨ ur ein beliebig großes n > m. Ist dim Def A = n endlich, so besteht Range A aus allen Punkten der Form

Ax = A(

n X

xk s k ) =

k=1

n X

xk Ask =

k=1

n X

xk Ask ,

k=m+1

also ist Range A = U := Span{Asm+1 , . . . , Asn }; ist dim Def A = ∞, so gilt zumindest Range A ⊇ U . Die Vektoren Asm+1 , . . . , Asn sind aber linear unabh¨angig: Aus n¨amlich A(

n X

αk sk ) = 0, also ist z :=

k=m+1

Null A ist, gibt es eine Darstellung z =

m X

n X

k=m+1

n X

αk Ask = 0 folgt

k=m+1

αk sk ∈ Null A. Da s1 , . . . , sm Basis von

βk sk . Da s1 , . . . , sn als Basis linear unabh¨angig

k=1

ist, folgt durch Koeffizientenvergleich 0 = βk f¨ ur k = 1, . . . , m und αk = 0 f¨ ur k = m + 1, . . . , n. Nach Proposition 6.26(iv) ist also dim U = |{Asm+1 , . . . , Asn }| = n − m. Ist dim Def A = n endlich, so folgt dim Range A+dim Null A = dim U +m = n = dim Def A; ist dim Def A = ∞, so gilt statt dessen dim Range A ≥ dim U = n − m, und da n beliebig groß sein darf, muß dim Range A = ∞ sein. ⊓ ⊔ In der folgenden Figur ist die Dimensionsformel illustriert, indem Dimensionen durch L¨angen dargestellt werden.

101 A

. ..................................................... .

V = Def A HH

HH

Null A

HH

HH

W HH

HH H

Range A HH

HH H 0

Als erste Illustration der Dimensionsformel betrachten wir die durch Zeilenvektoren vermittelten linearen Abbildungen. 6.33 Beispiel. Die Transponierte eines Vektors a ∈ K n ist die 1 × n-Matrix aT := (a1 , . . . , an ), die einen Vektor x ∈ K n auf a · x := aT x =

n X k=1

ak x k ∈ K

(das Skalarprodukt von a und x) abbildet. Ist a 6= 0, so ist offenbar dim Range aT = dim K = 1, nach der Dimensionsformel also dim Null aT = n − 1.

Durch Translation des Nullraums von A um einen Vektor x0 mit aT x0 = α erh¨alt man die affine Menge H = x0 + Null aT , die sich wegen Proposition 6.13(ii) auch als {x ∈ K n | aT x = α} (a 6= 0)

(19)

schreiben l¨aßt. Affine Mengen der Form (19) heißen Hyperebenen; ihre Dimension ist n − 1.

Insbesondere sind Hyperebenen im K 3 gerade gew¨ohnliche Ebenen, und Hyperebenen im K 2 sind Geraden. Es ist nicht schwer zu sehen (Schulstoff!), daß sich jede Gerade im K 2 und jede Ebene im K 3 in der Form (19) schreiben l¨aßt. Wir werden dies in Kapitel 8 als Spezialfall einer wesentlich allgemeineren Aussage erhalten. Die Dimensionsformel erm¨oglicht es, Proposition 6.16 ohne Referenz auf einen Standardvektorraum zu formulieren und durch eine hinreichende Bedingung f¨ ur die Bijektivit¨at zu erg¨anzen: 6.34 Satz A sei lineare Abbildung von V nach W . (i) Ist A surjektiv, so gilt dim V ≥ dim W .

(ii) Ist A injektiv, so gilt dim V ≤ dim W .

(iii) Ist A bijektiv, so gilt dim V = dim W .

(iv) Gilt dim V = dim W < ∞ und ist A surjektiv oder injektiv, so ist A bijektiv.

102

KAPITEL 6. LINEARE ALGEBRA

Beweis. (i) Ist A surjektiv, so gilt Range A = W ; wegen dim Null A ≥ 0 folgt aus der Dimensionsformel also dim V = dim Def A = dim Range A + dim Null A ≥ dim Range A = dim W . (ii) Ist A injektiv, so gilt dim Null A = 0; wegen Range A ⊆ W folgt aus der Dimensionsformel also dim V = dim Def A = dim Range A + dim Null A = dim Range A ≤ dim W . (iii) ergibt sich unmittelbar aus (i) und (ii).

(iv) Sei dim V = dim W < ∞. Ist A surjektiv, so ist Range A = W . Daraus folgt dim Null A = dim Def A − dim Range A = dim V − dim W = 0, also ist A injektiv und damit bijektiv. Ist A injektiv, so ist dim Null A = 0, also dim Range A = dim Def A − dim Null A = dim V = dim W . Da Range A in W enthalten ist, folgt Range A = W . Also ist A surjektiv und damit bijektiv. ⊓ ⊔ Das folgende Beispiel zeigt, daß man bei unendlichen Dimensionen vorsichtig sein muß.

103 6.35 Beispiel. V sei der Vektorraum Pol(K) aller Polynome mit Koeffizienten aus K. Durch n n X X ′ k−1 Dp(x) := p (x) = kak x falls p(x) = ak x k , k=1

Jp(x) :=

n X

ak k+1 x k+1

k=0

falls p(x) =

k=0 n X

ak x k

k=0

werden lineare Abbildungen D, J : V → V (Ableitung und Integral) definiert. Wegen DJp = p f¨ ur alle Polynome p ∈ V ist J injektiv (aus x = Jp ergibt sich p = Dx eindeutig) und D surjektiv (ein beliebiges p ∈ V ist Bild von x = Jp). Wegen D1 = D0 = 0 ist D nicht injektiv, und wegen Jp(0) = 0 f¨ ur alle p ∈ V ist 1 6∈ Range J, also J nicht surjektiv. Daher sind D und J nicht bijektiv; Satz 6.34(iv) ist also ohne die Voraussetzung endlicher Dimension falsch. Zum Abschluß zeigen wir, wie man mit Hilfe von Karten oder Koordinatensystemen beliebige lineare Abbildungen zwischen beliebigen endlich-dimensionalen Vektorr¨aumen durch Matrizen beschreiben kann. 6.36 Satz φV : V → K n und φW : W → K m seien Koordinatensysteme von V bzw. W .

(i) Zu jeder linearen Abbildung L : V → W gibt es eine (eindeutig bestimmte) Matrix A ∈ K m×n , derart, daß L = φ−1 (20) W ◦ A ◦ φV . (ii) Ist umgekehrt A ∈ K m×n , so ist die durch (20) definierte Abbildung L : V → W linear. V

L

. ........................................................................................ .

... ... ... ... ... ... ... ... ... V ....... ... ... ... . ......... ...... ...

W ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ......... ...... ...

φ

φW

K n ......................................................................................... K m A ..

Beweis. (i) Da φV und φW bijektive lineare Abbildungen sind, ist (20) gleichwertig mit n A = φW ◦ L ◦ φ−1 V . Die dadurch definerte Abbildung A ist aber linear und geht von K nach K m , ist also eine m × n-Matrix. ⊓ ⊔

(ii) ist klar.

Wenn man zu einer linearen Abbildung zwischen endlich-dimensionalen Vektorr¨aumen V und W die Koordinatensysteme von V und W geschickt w¨ahlt, kann man immer eine Matrixdarstellung (20) mit einer besonders einfachen Matrix erreichen. 6.37 Satz V und W seien Vektorr¨aume mit n = dim V < ∞ und m = dim W < ∞. Dann gibt es zu jeder linearen Abbildung A : V → W vom Rang r := dim Range A zwei Koordinatensysteme φV von V und φW von W derart, daß A = φ−1 W ◦ J ◦ φV

(21)

104

KAPITEL 6. LINEARE ALGEBRA

mit der durch Jjk = definierten Matrix

erf¨ ullt ist.



    J =    

(

1 falls j = k ≤ r, 0 sonst 

1 ... 1 ...

0

0  0

   ∈ K m×n    

Beweis. Wegen dim Null A = dim Def A − dim Range A = n − r k¨onnen wir eine Basis sr+1 , . . . , sn von Null A ⊆ V finden und sie zu einer Basis s1 , . . . , sn von V erg¨anzen. Wir bilden zu dieser Basis die Karte B = (s1 | . . . |sn ) und das zugeh¨orige Koordinatensystem φV := B −1 von V . Da nach Konstruktion der sk f¨ ur k > r die Beziehung Ask = 0 gilt, ist Range A = Span{As1 , . . . , Asn } = Span{As1 , . . . , Asr }. Wegen dim Range A = r sind u1 = As1 , . . ., ur = Asr linear unabh¨angige Vektoren von W , die man zu einer Basis u1 , . . . , um von W erg¨anzen kann. Wir bilden zu dieser Basis die Karte C = (u1 | . . . |um ) und das zugeh¨orige Koordinatensystem φW := C −1 von W . n m Die lineare Abbildung J := φW ◦ A ◦ φ−1 V geht von K nach K , ist also eine m × n-Matrix, und nach Konstruktion gilt (21). Die kte Spalte von J ist J:k = Jek = φW (A(Bek )) = φW (A(B:k )) = φW (Ask ). F¨ ur k > r ist Ask = 0, also auch J:k = 0. Und f¨ ur k ≤ r ist J:k = φW (Ask ) = φW uk = φW C:k = φW Cek = ek . Daraus folgt die Behauptung. ⊓ ⊔

Man beachte, daß es in der Regel viele Koordinatensysteme mit der in diesem Satz geforderten Eigenschaft gibt.

Kapitel 7 Felder In diesem Kapitel untersuchen wir Funktionen, deren Definitionsbereiche h¨oherdimensional sind, insbesondere Skalarfelder und Vektorfelder. Wir lernen Gradienten, partielle Ableitungen und Richtungsableitungen zu berechnen, Funktion zu linearisieren, diskutieren die Rolle von Feldern in den Differentialgleichungen in der Physik, behandeln Integrale von Feldern entlang eines Weges, und zeigen, wie sich damit das zu einem Gradientenfeld geh¨orige Potential finden l¨aßt. Im Folgenden sind V, W stets R¨aume u ¨ber K = R oder C. 7.1 Definition (i) Mit F(V, W ) bezeichnen wir die Menge der Abbildungen f : D ⊆ V → W . Im Fall W = K heißt f ein Skalarfeld (auf D), im Fall W = V ein Vektorfeld (auf D), und im Fall W = L(V, V ) ein Tensorfeld (auf D). (ii) Ist f ein Skalarfeld, so heißen die Mengen der Form {x ∈ Def(f )|f (x) = γ} die Niveaufl¨ achen (f¨ ur V = R2 Niveaulinien oder H¨ ohenlinien) von f . (iii) Ist f ein Vektorfeld, so heißt die Menge der C 1 Wege x : [α, ω] → Def(f ) mit x(t) ˙ = f (x(t))

(α ≤ t ≤ ω)

(1)

das zu f geh¨orige dynamische System, und die Bilder dieser Wege heißen Feldlinien (oder Stromlinien) von f . 7.2 Beispiel. Skalarfelder: Temperatur, Dichte, Druck; Vektorfelder: Geschwindigkeit einer str¨omenden Fl¨ ussigkeit, Magnetfeld, Schwerkraft. 3 4 Dabei ist V = R (Ort-Raum, klassisch) oder R (Raum-Zeit, relativistisch). Dynamische Systeme werden auch oft im Phasenraum V = R6N (Orts- und Impulskoordinaten von N Teilchen) beschrieben. Ein dynamisches System (1) beschreibt einen lokalen ¨ Prozess, da die momentane Anderung von x nur vom Feld f an der Stelle x abh¨angt. 105

106

KAPITEL 7. FELDER

7.3 Definition Ein Gebiet in V ist eine nichtleere Teilmenge Ω von V mit den Eigenschaften: (G1) F¨ ur alle x ∈ Ω enth¨alt Ω eine Kugel um x. (G2) F¨ ur alle a, b ∈ Ω gibt es einen Weg x : [α, ω] → Ω mit x(α) = a und x(β) = b. (Insbesondere ist V selbst ein Gebiet). 7.4 Proposition Jede offene Kugel B(x0 ; r) = {x ∈ V | kx − x0 k < r} ist ein Gebiet. Beweis. (i) Ist x ∈ B(x0 ; r), so enth¨alt B(x0 ; r) die Kugel um x mit Radius 1 (r − kx − x0 k) > 0, also gilt (G1). 2 (ii) Der Weg x : [0, 1] → V mit x(t) = (1 − t)a + tb verbindet die Punkte a, b ∈ B(x0 ; r), und wegen kx(t)−x0 k = k(1−t)(a−x0 )+t(b−x0 )k ≤ (1−t)ka−x0 k+tkb−x0 k < (1−t)r+tr = r f¨ ur t ∈ [0, 1] liegt der ganze Weg in B(x0 ; r); also gilt (G2). ⊓ ⊔ ⊓ ⊔

7.5 Definition f ∈ F(V, W ) heißt beschr¨ ankt in Ω ⊆ Def(f ), falls kf kΩ := sup kf (x)k < ∞.

(2)

x∈Ω

7.6 Proposition (i)Es gilt stets kAxk ≤ kAkkxk. P (ii)V = Kn , so ist kAk ≤ nk=1 kA:k k. Eine lineare Abbildung A ∈L(V, W ) heißt beschr¨ ankt, falls kAk := kAkB[0;1] = sup kAxk < ∞.

(3)

kxk≤1

kf kΩ und kAk heißen Supremumsnormen. 7.7 Satz Eine lineare Abbildung A ∈L(V, W ) ist genau dann stetig, wenn sie beschr¨ankt ist. Insbesondere ist f¨ ur dim V < ∞ jede lineare Abbildung von V nach W stetig. Beweis. (i) Ist A stetig, so gibt es eine Umgebung U von x0 mit kA(x) − A(x0 )k ≤ ǫ. Ist B[x0 ; δ] eine in U enthaltene Kugel, so geh¨ort f¨ ur h ∈ B[0, 1] der Vektor x = x0 + δh zu B[x0 ; δ], −1 also zu U , und es ist kAhk = δ kA(x − x0 )k ≤ δ −1 ǫ. Die Schranke ist unabh¨angig von h ∈ B[0, 1]; also gilt kAk ≤ δ −1 ǫ. Daher ist A beschr¨ankt. (ii) Ist A beschr¨ankt, so ist kA(x) − A(x0 )k = kA(x − x0 )k ≤ kAkkx − x0 k ≤ ǫ, falls kx − x0 k ≤ ǫ/kAk, also ist A stetig. F¨ ur dim V < ∞ ist jede lineare Abbildung von V nach W beschr¨ankt, also stetig. ⊓ ⊔

107 ⊓ ⊔ Im Mehrdimensionalen benutzt man die Linearisierungseigenschaft zur Definition der Ableitung. 7.8 Definition f ∈ F(V, W ) heißt differenzierbar, im Gebiet Ω ⊆ V , falls Def(f ) ⊇ Ω und es eine Abbildung f ′ : Ω → L(V, W ) gibt, so daß f¨ ur alle x ∈ Ω die Beziehung f (x + h) = f (x) + f ′ (x)h + o(khk) f¨ ur h → 0 (4) gilt. f heißt stetig differenzierbar in Ω, falls f und f ′ dort stetig sind. 7.9 Satz (i) Die Abbildung f ′ ist durch die Forderung (4) eindeutig bestimmt, und heißt die Ableitung von f . (ii) Eine in Ω differenzierbare Funktion f ist genau dann stetig, wenn f ′ (x) f¨ ur alle x ∈ Ω beschr¨ankt ist. Beweis. (i) Ist g : Ω → L(V, W ) eine Abbildung mit f (x + h) = f (x) + g(x)h + o(khk)

f¨ ur h → 0,

so ist (Differenz zu (3)): 0 = f ′ (x)h − g(x)h + o(khk) ; also gibt es zu jedem ǫ > 0 eine Umgebung Uǫ von 0 mit kg(x)h − f ′ (x)hk ≤ ǫkhk

f¨ ur alle h ∈ Uǫ .

(5)

Ist B[0; δ] eine Kugel in Uǫ und z ∈ B[0; 1], so hat h := δz die Norm δ, liegt also in Uǫ . Einsetzen in (5) ergibt nach K¨ urzen mit δ die Beziehung k(g(x)−f ′ (x))zk ≤ ǫ. Da z ∈ B[0, 1] beliebig war, folgt kg(x) − f ′ (x)k ≤ ǫ, und da ǫ > 0 beliebig war, folgt g(x) = f ′ (x). Also ist f ′ eindeutig. (ii) Ist f ′ (x) f¨ ur alle x ∈ Ω beschr¨ankt, so ist kf ′ (x)hk ≤ kf ′ (x)kkhk, also f ′ (x)h = O(khk), und aus (4) folgt f (x + h) = f (x) + O(khk) = f (x) + o(1). Also ist f in Ω stetig. Ist umgekehrt f stetig, so ist f (x + h) = f (x) + o(1), und aus (4) folgt f¨ ur beliebige z ∈ V , daß f ′ (x)(z + h) = f ′ (x)z + f ′ (x)h + o(khk) gilt. Daher ist f ′ (x) stetig, also beschr¨ankt.

⊓ ⊔ ⊓ ⊔

108

KAPITEL 7. FELDER

7.10 Bemerkung. F¨ ur V = K ist f¨ ur A = f ′ (x) eine lineare Abbildung von K → W ; wegen Aα = α · A1 ist diese Abbildung durch die Multiplikation mit dem Vektor A1 gegeben. Es ergeben sich also keine Bezeichnungsprobleme, wenn man die lineare Abbildung in diesem Fall mit dem Vektor identfiziert. Dann stimmt die Ableitung mit der f¨ ur Wege definierten Ableitung u berein. ¨ 7.11 Beispiele. (i) F¨ ur die affine Funktion f : V → W mit f (x) := Ax + b (A ∈ Lin(V, W ), b ∈ W ) ist f (x + h) = A(x + h) + b = Ax + b + Ah, also ist f differenzierbar und f ′ (x) = A unabh¨angig von x. f ist stetig falls A beschr¨ankt ist. (ii) F¨ ur A ∈ Rn×n , a ∈ Rn , α ∈ R definiert f (x) := xT Ax + aT x + α ein Skalarfeld (genannt eine affine Quadrik, f¨ ur n = 2 ein Kegelschnitt). Es ist f (x + h) = (x + h)T A(x + h) + aT (x + h) + α = xT Ax + hT Ax + xT Ah + hT Ah + aT x + aT h + α = f (x) + (xT A + xT AT + aT )h + hT Ah. Hier wird von der Regel (AB)T = B T AT f¨ uer die Transponierte AT mit den Komponenten (AT )ij = AjiP (Spiegelung der P MAtrix an der Hauptdiagonalen) Gebrauch gemacht. Wegen | hT Ah |=| i,k hi Aik hk |≤ ( i,k | Aik |)khk2∞ ist hT Ah = O(khk2 ) = o(khk), also ist f differenzierbar und f ′ (x) = xT A + xT AT + aT (ein Zeilenvektor). Wichtigster Spezialfall ist V = Kn , W = Km ; in diesem Fall ist f ′ (x) ∈ Lin(Kn , Km ). Wir identifizieren lineare Abbildungen von Kn nach Km mit den zugeh¨origen m × n-Matrizen bez¨ uglich der Standardbasen; damit wird f ′ (x) eine m × n-Matrix (Funktionalmatrix, Jakobimatrix). Zur Diskussion der Bedeutung der Komponenten f¨ uhren wir noch ein paar Bezeichnungen ein: 7.12 Definition f ∈ F(V, W ) sei im Gebiet Ω ⊆ V differenzierbar. (i) F¨ ur h ∈ V heißt die durch ∇h f (x) := f ′ (x)h

(x ∈ Ω)

(6)

definierte Abbildung ∇h f : Ω → W die Richtungsableitung von f nach h. (ii) Ist V = Kn und W = K, so heißt die durch ∇f (x) := f ′ (x)⊤

(x ∈ Ω)

(7)

definierte Abbildung ∇f : Ω → Kn der Gradient des Skalarfeldes f ; man schreibt statt ∇f auch grad f . (Das Symbol ∇ wird auch Nabla genannt.) Der (altgriechische) Name Nabla stammt von William Robertson Smith (1846-1894), den die Form an eine antike Harfe erinnerte (Wikipedia). 7.13 Satz Sei f ∈ F(V, W ). (i) Ist f in Ω stetig differenzierbar, so gilt f¨ ur x ∈ Ω und h ∈ V die Beziehung ∇h f (x) =

d f (x + th)|t=0 dt

(8)

109 (ii) Ist V = Kn , so ist f genau dann stetig differenzierbar in Ω wenn die f¨ ur k = 1, ...., n durch d ∇k f (x) := f (x + te(k) )|t=0 (9) dt definierten partiellen Ableitungen ∇k f : Ω → W existieren und stetig sind. In diesem Fall gilt ∇k f (x) = f ′ (x)·k f ′ (x) = (∇1 f (x), ..., ∇n f (x)).

(10) (11)

(∇f )k = ∇k f, f ′ (x)h = ∇f (x) · h,

(12) (13)

f ′ (x)ik = ∇k fi (x), n X ′ f (x)h = hk ∇k f (x).

(14)

Außerdem gilt f¨ ur W = K

und f¨ ur W = Km

(15)

k=1

Beweis. von Satz 7.13: (i) Da Ω Gebiet ist, enth¨alt Ω eine Kugel B[x; r]. Wir setzen ω := r/ k h k (aber ω = 1 falls h = 0) und α := −ω; dann enth¨alt Ω die Punkte x+th(t ∈ [α, ω]), und wir k¨onnen den Weg g : [α, ω] → W mit g(t) := f (x + th)

(16)

betrachten. F¨ ur t → 0 gilt g(t) = f (x + th) = f (x) + f ′ (x)(th) + o(k th k) = f (x) + tf ′ (x)h + o(t), ( 6) da f ′ (x) linear und h fest ist. Wegen f (x) = g(0) folgt g(0) ˙ = f ′ (x)h = ∇h f (x), und wegen (16) folgt (8).

(ii) Ist f in Ω stetig differenzierbar, so folgt aus (9),(8) und (6) die Relation ∇k f (x) = ∇e(k) f (x) = f ′ (x)e(k) = f ′ (x)·k , also gilt (10); und ∇k f ist stetig, da f ′ stetig ist. (11) und (14) folgen direkt aus (10), (12) folgt aus (7) und (10), (13) aus (7), und (15) aus (11). Insbesondere zeigt (11), daß f ′ (x) durch die partiellen Ableitungen schon festgelegt ist. Daß die Existenz und Stetigkeit der partiellen Ableitungen ausreicht, um f¨ ur das durch (11) definierte f ′ die Approximationseigenschaft (4) zu zeigen, erfordert zus¨atzliche Hilfsmittel (Mittelwertsatz); auf den Beweis wird verzichtet, da er keine wesentliche Einsicht vermittelt. ⊓ ⊓ ⊔ ⊔

110

KAPITEL 7. FELDER

7.14 Bemerkung. (9) besagt, daß die partielle Ableitung ∇k f (x) berechnet werden kann, indem man in f (x) alle Komponenten xj (j 6= k) festh¨alt, und f als Funktion von xk allein ∂f betrachtet und abgeleitet wird. Man schreibt deshalb statt ∇k f auch ∂x∂ k f oder ∂x , falls k die Variablen mit xk bezeichnet werden. Das runde ∂ steht statt d, um zu betonen, daß es sich um partielle Ableitungen handelt. (11) besagt, daß man die Ableitung spaltenweise durch partielles Ableiten nach den einzelnen Variablen erh¨alt; f¨ ur ein Skalarfeld ist insbesondere f ′ (x) ein Zeilenvektor. Dies motiviert die Transposition in der Definition des Gradienten. 7.15 Konvention f (x1 , ..., xn ) := f ((x1 , ..., xn )⊤ ) 7.16 Beispiel. (Polarkoordinaten) Sei V = W = R2 , Ω = R+ × R. F¨ ur die durch f (r, φ) :=

r cos φ r sin φ

!

definierte Funktion f : Ω → W gilt ∂ f (r, φ) = ∇1 f (r, φ) = ∂r

cos φ sin φ

!

,

−r sin φ r cos φ ! − r sin φ . r cos φ

∂ ∇2 f (r, φ) = f (r; φ) = ∂φ f ′ (r, φ) =

cos φ sin φ

!

,

7.17 Satz f ∈ F(V, W ) sei in Ω stetig differenzierbar und g ∈ F(W, W ′ ) sei in Ω′ ⊇ f (Ω) stetig differenzierbar. Dann ist g ◦ f in Ω stetig differenzierbar, und f¨ ur x ∈ Ω gilt die Kettenregel (g ◦ f )′ (x) = g ′ (f (x))f ′ (x). (17) Beweis. Da f und g stetig sind, sind f ′ (x) und g ′ (f (x)) beschr¨ankt. Insbesondere ist f ′ (x)h = O(khk), also h0 := f (x + h) − f (x) = f ′ (x)h + o(h) = O(h). Daher ist (g ◦ f )(x + h) = = = =

g(f (x + h)) = g(f (x) + h0 ) g(f (x)) + g ′ (f (x))h0 + o(h0 ) g(f (x)) + g ′ (f (x))(f ′ (x)h + o(h)) + o(h) (g ◦ f )(x) + g ′ (f (x))f ′ (x)h + o(h),

und daraus folgt die Behauptung. ⊓ ⊔

7.18 Definition

⊓ ⊔

111 (i) F¨ ur x, y ∈ Rn setzt man T

x · y := x y = 2

n X

T

x := x · x = x x =

|x| heißt die L¨ ange von x.

|x| :=



xk yk ,

(18)

k=1

x2 ,

n X

x2k ,

(19)

k=1

(20)

(ii) Die Mengen B2 [x0 ; r] := {x ∈ Rn | |x − x0 | ≤ r} und B2 (x0 , r) := {x ∈ Rn ||x − x0 | < r}

heißen die abgeschlossene (bzw. offene) Euklidische Kugel um x0 mit Radius r. (iii) Eine Funktion f ∈ F(Rn , W ) heißt rotationssymmetrisch, falls es eine Funktion g ∈ F(R, W ) gibt mit Def(f ) = {x ∈ Rn | |x| ∈ Def(g)} und f (x) = g(|x|) f¨ ur x ∈ Def(f ). (21) √ ullt die Normaxiome im Rn , und 7.19 Satz Die 2-Norm kxk2 := |x| = xT x (x ∈ Rn ) erf¨ f¨ ur x, y ∈ Rn gilt die Cauchy-Schwarz’sche Ungleichung |x · y| ≤ |x||y|.

(22)

Gleichheit gilt in (22) genau dann, wenn x und y parallel (d.h. linear abh¨angig) sind. P Beweis. Wegen x2 := xT x = nk=1 x2k ≥ 0 ist |x| ≥ 0 und Gleichheit gilt nur f¨ ur x = 0. 2 T 2 T 2 2 Wegen |λx| = (λx) (λx) = λ x x = |λ| |x| ist |λx| = |λ||x|. Die Dreicksungleichung |x + y| ≤ |x| + |y| folgt aus (22) wegen |x + y|2 = (x + y)T (x + y) = (xT + y T )(x + y) = xT x + xT y + y T x + y T y ≤ |x|2 + |x||y| + |y||x| + |y|2 = (|x| + |y|)2 .

Es bleibt zu zeigen, daß (22) tats¨achlich gilt. Da dies f¨ ur x = 0 richtig ist, nehmen wir x 6= 0 an. F¨ ur alle λ ∈ R gilt |y − λx|2 = (y − λx)⊤ (y − λx) = y ⊤ y − λx⊤ y − λy ⊤ x + λ2 x⊤ x = |y|2 − 2λx · y + λ2 |x|2 .

Setzen wir speziell den Wert λ∗ := x · y/|x|2 ein (f¨ ur den die rechte Seite am kleinsten wird), so erhalten wir 0 ≤ |y − λ∗ x|2 = |y|2 − 2(x · y)2 /|x|2 + (x · y)2 /|x|2 = (|x|2 |y|2 − (x · y)2 )/|x|2 .

(23)

Also ist (x · y)2 ≤ |x|2 |y|2 , und daraus folgt (22). Gilt Gleichheit in (22), so folgt aus (23) |y − λ∗ x|2 = 0, also y = λ∗ x, d.h. x und y sind parallel. Sind umgekehrt x und y parallel, so ist entweder y = λx f¨ ur ein λ ∈ R und |x · y| = |x · λx| = |λ||x|2 = |x||λx| = |x||y| , oder x = 0 und |x · y| = 0 = |x||y| ; also gilt (22) mit Gleichheit. ⊓ ⊓ ⊔ ⊔

112

KAPITEL 7. FELDER

7.20 Bemerkung. Aus der Cauchy-Schwarz’schen Ungleichung folgt die Interpretation des Gradienten ∇f von f als die Richtung des st¨arksten Anstiegs, falls ∇f (x) 6= 0. Geht man in einem Gebiet Ω, in dem f stetig differenzierbar ist, von x ∈ Ω einen Schritt h von kleiner , aber fester L¨ange, so ¨andert sich f (x) um f (x+h)−f (x) = f ′ (x)h+o(h) ≈ ∇f (x)·h. Dieses Produkt ist wegen (22) ≤ |∇f (x)||h|, und nimmt diesen Wert genau dann an, wenn h ein Vielfaches von ∇f (x) ist (da ∇f (x) 6= 0 vorausgesetzt wurde). Der st¨arkste Anstieg erfolgt also in Richtung des Gradienten. Ein negatives Vielfaches ergibt einen Abstieg, und −∇f (x) gibt die Richtung des st¨arksten Abstiegs an. 7.21 Proposition (i) Es gilt ∇x2 = 2x.

(24)

(ii) Die Funktion x → |x| ist im Gebiet Ω = Rn \ {0} stetig differenzierbar; der Gradient ∇|x| = x/|x|

(25)

ist der auf die L¨ange 1 normierte Vektor in Richtung x. Beweis. (24) folgt aus

∂ x2 ∂xk

=

P

∂ ( ∂xk

∇k |x| =

x2k ) = 2xk . Die k-te Komponente von ∇|x| ergibt sich

xk ∂ √ 2 1 x = √ 2xk = 2 ∂xk |x| 2 x

und (25) folgt. Wegen |x/|x|| = |x|/|x| = 1 hat der Gradient die L¨ange 1 und seine Richtung ist die von x. ⊓ ⊓ ⊔ ⊔

7.22 Beispiel. Ω ⊆ R3 sei ein Gebiet, in dem Gravitationskr¨afte herrschen. Das Gravitationsfeld wird beschrieben durch Angabe einer Potentialfunktion Φ : Ω → R (ein Skalarfeld), die zu jedem x ∈ Ω die potentielle Energie Φ(x) angibt, die ein in x befindliches Teilchen (fester Masse m) haben w¨ urde. Auf ein solches Teilchen wirkt eine Kraft F (x) = −∇Φ(x)

(26)

in Richtung gr¨oßtm¨oglicher Veringerung der potentiellen Energie. Betrachtet man z.B. die Erde als Euklidische Kugel (um 0) vom Radius R und der Masse M , und ignoriert die Einfl¨ usse von r¨aumlichen Inhomogenit¨aten (Erzlagerst¨atten, andere Himmelsk¨orper, etc.), so hat man in Ω := {x ∈ R3 | |x| > R} ein Gravitationspotential Φ(x) := const − γmM/|x|;

(27)

γ > 0 ist dabei die sogenannte Gravitationkonstante. Die Potentielle Energie ist rotationssymmetrisch und nimmt mit wachsendem Abstand |x| zum Erdmittelpunkt zu; die Konstante legt den Nullpunkt der Energiemessung fest; verlangt man Φ(x) = 0 auf der

113 Erdoberf¨ache, so folgt const = γmM/R. Die Schwerkraft am Punkt x ergibt sich aus (26) und (27) nach der Kettenregel zu F (x) = −∇Φ(x) = γmM ∇|x|−1 = γmM (−|x|−2 )

x γmM =− x. |x| |x|3

Man sieht, daß die Schwerkraft parallel zu x ist, wegen dem Vorzeichen also in Richtung des Erdmittelpunktes zeigt; die St¨arke der Kraft f¨allt wegen |F (x)| = γmM/|x|2 umgekehrt proportional zum Quadrat des Abstands zum Erdmittelpunkt. Unter dem Einfluß der Kraft bewegt sich ein Teilchen im Gravitationsfeld auf einem C 2 -Weg x : [0, T ] −→ Ω ; x(t) gibt seinen Ort und x(t) ˙ seine Geschwindigkeit zur Zeit t an. Nach dem Newtonschen Kraftgesetz (Kraft=Masse · Beschleunigung) gilt f¨ ur die Beschleunigung x¨(t) die Gleichung m¨ x(t) = −∇Φ(x(t)). (28) Die Gesamtenergie des Teilchens zur Zeit t setzt sich aus der kinetischen Energie 21 mv 2 = 1 mx(t) ˙ 2 und der potentiellen Energie Φ(x) = Φ(x(t)) zusammen, also 2 1 ˙ 2 + Φ(x(t)). E(t) = mx(t) 2

(29)

¨ Die zeitliche Anderung der Gesamtenergie ergibt sich aus der Produktregel und der Kettenregel zu (29) (28) ˙ E(t) = mx(t) ˙ · x¨(t) + ∇Φ(x(t)) · x(t) ˙ = mx(t) ˙ · x¨(t)) − m¨ x(t) · x(t) ˙ = 0,

d.h. die Gesamtenergie bleibt zeitlich konstant. 7.23 Satz f, g ∈ F(V, W ) und a ∈ F(V, K) seien im Gebiet Ω stetig differenzierbar. Dann sind f ± g, f a, und (falls a(x) 6= 0 f¨ ur x ∈ Ω) f /a in Ω stetig differenzierbar, und es gilt (f ± g)′ = f ′ ± g ′ , (f a)′ = f ′ a + f a′ , (f /a)′ = (f ′ a − f a′ )/a2 .

(30) (31) (32)

Ist außerdem A ∈ Lin(W, W ′ ) beschr¨ankt, so ist auch Af in Ω stetig differenzierbar, und (Af )′ = Af ′ . Beweis. Aus f (x + h) ± g(x + h) = (f (x) + f ′ (x)h + o(h)) ± (g(x) + g ′ (x)h + o(h)) = f (x) ± g(x) + (f ′ (x) ± g ′ (x))h + o(h) folgt (30), aus f (x + h)a(x + h) = = = =

f (x + h)(a(x) + a′ (x)h + o(h)) f (x + h)a(x) + f (x + h)a′ (x)h + o(h) (f (x) + f ′ (x)h + o(h))a(x) + (f (x) + o(1))a′ (x)h + o(h) f (x)a(x) + (f ′ (x)a(x) + f (x)a′ (x))h + o(h)

(33)

114

KAPITEL 7. FELDER

folgt(31). F¨ ur die Division ist (f (x + h) − f (x))a(x) − f (x)(a(x + h) − a(x)) a(x + h)a(x) (f ′ (x)h + o(h))a(x) − f (x)(a′ (x)h + o(h)) = a(x + h)a(x) ′ f (x)a(x) − f (x)a′ (x) = h + o(h); a(x + h)a(x)

f (x + h)/a(x + h) − f (x)/a(x) =

wegen

1 1 = + o(1) a(x + h) a(x)

kann man den Nenner a(x + h) durch a(x) ersetzen, und erh¨alt im Quotienten einen zus¨atzlichen Fehler o(h). Daraus folgt (32). Schließlich folgt (33) aus Af (x + h) = A(f (x) + f ′ (x)h + o(h)) = Af (x) + Af ′ (x)h + o(h), ⊓ ⊔

da A beschr¨ankt ist. ⊓ ⊔

7.24 Bemerkung. Ist V = Kn , W = Km , so ist f ′ (x) ∈ Km×n und a′ (x) ∈ K1×n , also in (31) und (32) f ′ a ∈ Km×n (Matrix × Skalar) und f a′ ∈ Km×n (Spaltenvektor × Zeilenvektor). Die Formel (af )′ = af ′ + a′ f ist nicht g¨ ultig, da a′ f f¨ ur m 6= n nicht definiert ist und f¨ ur m = n die falsche Dimension 1 × 1 statt (wie af ′ ) m × n hat. 7.25 Konvention F¨ ur f ∈ F(V1 × V2 , W ) bezeichnet F (·, y) die Abbildung, die x auf F (x, y) := F ((x, y)) abbildet und F (x, ·) die Abbildung, die y auf F (x, y) abbildet. Die ∂ Ableitung von F (·, y) an der Stelle x wird mit ∂x F (x, y) oder Fx (x, y) und die Ableitung ∂ von F (x, ·) an der Stelle y mit ∂y F (x, y) oder Fy (x, y) bezeichnet. Die Formel f¨ ur die Linearisierung wird damit zu F (x + h, y + k) = F (x, y) + Fx (x, y)h + Fy (x, y)k + o(khk + kkk),

(34)

und die Kettenregel wird zu d d d F (x(z), y(z)) = Fx (x(z), y(z)) x(z) + Fy (x(z), y(z)) y(z) dz dz dz

(35)

oder symbolisch mit Differentialen dF (x, y) = Fx (x, y)dx + Fy (x, y)dy. 7.26 Satz f ∈ F(V, W ) sei stetig im Gebiet Ω ⊆ V und F ∈ F(V × W, W ′ ) sei stetig differenzierbar in einem Gebiet Ω0 ⊇ {(x, f (x)) | x ∈ Ω}. Gilt F (x, f (x)) = 0 f¨ ur x ∈ Ω

(36)

und hat die lineare Abbildung Fy (x, f (x)) f¨ ur alle x ∈ Ω eine beschr¨ankte Inverse, so ist f in Ω stetig differenzierbar, und es ist f ′ (x) = −Fy (x, f (x))−1 Fx (x, f (x)).

(37)

115 Beweis. Um (37) zu zeigen, nehmen wir an, daß f in Ω differenzierbar ist. Dann gilt nach der Kettenregel d F (x, f (x)) = Fx (x, f (x)) + Fy (x, f (x))f ′ (x). dx Wegen (36) ist die linke Seite dieser Gleichung Null, und Aufl¨osen nach f ′ (x) ergibt die Gleichung (37); f ′ ist stetig, da Fy−1 beschr¨ankt ist. Es bleibt zu zeigen, daß f tats¨achlich differenzierbar ist. Da wir schon wissen, wie die Ableitung aussehen muß, reicht es, zu zeigen, daß das Fehlerglied bei der Linearisierung, ∆ : = f (x + h) − f (x) − f ′ (x)h = f (x + h) − f (x) + Fy (x, f (x))−1 Fx (x, f (x)),

(38)

f¨ ur festes x ∈ Ω von der Gr¨oßenordnung o(khk) ist. Auf den Beweis daf¨ ur wollen wir verzichten, da er keine wesentliche Einsicht bringt. ⊓ ⊓ ⊔ ⊔ 7.27 Beispiel. f (x) sei die gr¨oßere L¨osung y der Gleichung x2 y 2 = (x + 1)y + 1. Dies hat die Form (36) mit F (x, y) = x2 y 2 − (x + 1)y − 1, und die L¨osung kann in diesem Fall explizit angegeben werden: p √ x + 1 + (x + 1)2 + 4x2 x + 1 + 5x2 + 2x + 1 f (x) = y = = 2x2 2x2 Statt dies direkt abzuleiten, kann man Formel (37) anwenden und erh¨alt f ′ (x) = − z.B. ist f (−1) = y =

√ 0+ 4 2

(2xy 2 − y) y − 2xy 2 = , 2x2 y − (x + 1) 2x2 y − x − 1

= 1 und f ′ (−1) =

y+2y 2 2y

= 32 .

7.28 Bemerkung. (37) ist besonders dann wichtig, wenn man die Gleichung (36) nicht mehr in geschlossener Form nach f (x) aufl¨osen kann. 7.29 Satz Ist f ∈ F(V, W ) im Gebiet Ω stetig differenzierbar und gilt f ′ (x) = 0 f¨ ur alle x ∈ Ω, so ist f (x) in Ω konstant. Beweis. x : [0, 1] → Ω sei ein Weg, der x0 , x1 ∈ Ω verbindet. Nach der Kettenregel hat der Weg g := f ◦ x mit g(t) = f (x(t)) die Ableitung g(t) ˙ = f ′ (x(t)) x(t) ˙ = 0, also ist g konstant (vgl. Satz 5.34) und daher f (x0 ) = g(0) = g(1) = f (x1 ). Da x0 und x1 beliebig auf Ω waren, ist f auch in Ω konstant. ⊓ ⊓ ⊔ ⊔ 7.30 Definition (i) F¨ ur ein Gebiet Ω ⊆ V bezeichnet C 0 (Ω, W ) = C(Ω, W ) die Menge aller stetigen und beschr¨ankten Funktionen f : Ω → W . F¨ ur r > 0 bezeichnet C r (Ω, W ) die Menge aller stetig differenzierbaren Funktionen f : Ω → W mit ∇h f ∈ C r−1 (Ω, W ) f¨ ur alle ∞ r h ∈ V , und C (Ω, W ) bezeichnet den Durchschnitt aller C (Ω, W ) (r = 0, 1, . . .), also die Menge aller beliebig oft stetig differenzierbaren Funktionen f : Ω → W .

116

KAPITEL 7. FELDER

(ii) Bei Skalarfeldern (W = K) schreibt man statt C r (Ω, K) k¨ urzer C r (Ω) (r ∈ N0 ∪{∞}).

˜ ∈ V gilt 7.31 Satz F¨ ur f ∈ C 2 (Ω, W ) und beliebige h, h

t2 2 ∇ f (x) + o(t2 ) 2 h ˜ − f (x + th) − f (x + th) ˜ + f (x) = t2 ∇h ∇˜ f (x) + o(t2 ). f (x + t(h + h)) h

f (x + th) = f (x) + t∇h f (x) +

(39) (40)

Insbesondere gilt ∇h ∇h˜ f = ∇h˜ ∇h f.

(41)

Sind die zweiten partiellen Ableitungen also stetig, so darf man Richtungsableitungen vertauschen.) Beweis. (i) Der Weg g mit g(t) = f (x + th) ist wegen g(t) ˙ = f ′ (x + th)h = ∇h f (x + th) und g¨(t) = (∇h f )′ (x + th)h = ∇h (∇h f )(x + th) = ∇2h f (x + th) ein C 2 -Weg. Taylorentwicklung liefert die Formel (39). ˜ ∈ Ω f¨ (ii) Da Ω ein Gebiet ist, gibt es eine Umgebung U von 0 mit x+sh+th ur alle s, t ∈ U . Wir betrachten die Abbildung g : U × U → W mit ˜ − f (x + sh). g(s, t) := f (x + sh + th)

(42)

Nach der Kettenregel ist ∂ ˜ h ˜ = ∇˜ f (x + sh + th) ˜ g(s, t) = f ′ (x + sh + th) h ∂t noch stetig differenzierbar, und analog sind gt (s, t) =

∂ ˜ gt (s, t) = ∇h ∇h˜ f (x + sh + th), ∂s ∂ ˜ gtt (s, t) = gt (s, t) = ∇2h˜ f (x + sh + th) ∂t noch stetig. Durch Taylorentwicklung erhalten wir wegen g(s, 0) = 0 die Formel gts (s, t) =

(43) (44)

t2 gtt (s, 0) + o(t2 ). 2 Einsetzen von s = t und s = 0 und Subtraktion ergibt g(s, t) = tgt (s, 0) +

g(t, t) − g(0, t) = t(gt (t, 0) − gt (0, 0)) + = t(gts (0, 0)t + o(t)) +

t2 (gtt (t, 0) 2

t2 o(1) 2

− gtt (0, 0)) + o(t2 )

+ o(t2 )

= t2 gts (0, 0) + o(t2 ). Einsetzen der Formeln (42) und (44) liefert die Beziehung (40). Da die linke Seite von (40) ˜ sich nicht ¨andert, gilt dasselbe f¨ sich bei Vertauschen von h und h ur die rechte Seite, und (41) folgt. ⊓ ⊓ ⊔ ⊔ Der Fall, daß f ein Skalarfeld u ¨ber Ω ⊆ Rn ist, verdient besonders hervorgehoben zu werden.

117 7.32 Satz (Quadratische Approximation) Ω ⊆ Rn sei ein Gebiet, f ∈ C 2 (Ω, R). Dann ist die durch ∇2 f (x)ik := ∇i ∇k f (x)

(i, k = 1, . . . , n)

(45)

definierte Hessematrix ∇2 f (x) ∈ Rn×n von f an der Stelle x ∈ Ω symmetrisch, und f¨ ur h → 0 gilt 1 f (x + h) = f (x) + ∇f (x)T h + hT ∇2 f (x)h + o(h2 ). (46) 2 Statt ∇2 f (x) schreibt man auch f ′′ (x). Beweis. Aus ∇2 f (x)ki = ∇k ∇i f (x) = ∇i ∇k f (x) = ∇2 f (x)ik folgt die Symmetrie der Hessematrix. Wegen X ∇h f (x) = f ′ (x)h = ∇f (x)T h = hk ∇k f (x) k

∇2h f (x)

= ∇h (∇h f (x)) =

=

X i

X i

hi ∇i (∇h f (x))

X X hi ∇i ( hk ∇k f (x)) = hi hk ∇i ∇k f (x) = hT ∇2 f (x)h k

i,k

˜ mit t = khk, h ˜ = h/khk ergibt sich die Formel (46) aus (39), wenn man h durch th ersetzt. ⊓ ⊓ ⊔ ⊔

7.33 Bemerkungen. (i) Die Hessematrix ist ein Maß f¨ ur die Abweichung vom linearen Verhalten von f . (ii) Man dr¨ uckt die Symmetrie kurz duch ∇i ∇k = ∇k ∇i aus.

118

KAPITEL 7. FELDER

Kapitel 8 Matrizen und lineare Gleichungssysteme In diesem Kapitel lernen wir praktisch mit Matrizen rechnen, und schauen uns einige spezielle Klassen von Matrizen und ihre Wirkung an. Wir wenden dann diese F¨ahigkeiten auf die L¨osung linearer Gleichungssysteme an. Wir erhalten dabei auch Einsichten in den Aufbau der L¨osungsmenge eines linearen Gleichungssystems. Als erstes schauen wir uns an, wie die Matrizenoperationen in Komponentendarstellung aussehen. Dazu erinnern wir zun¨achst an die Formeln Aj: = eTj A,

A:k = Aek ,

Ajk = eTj Aek , n X

Ax =

A:k xk

k=1

xT A =

m X

(2)

f¨ ur A ∈ K m×n , x ∈ K n ,

(3)

f¨ ur A ∈ K m×n , x ∈ K m ,

(4)

xj Aj:

j=1

xT y = x · y =

(1)

n X

xj yj

j=1

f¨ ur x, y ∈ K n .

(5)

8.1 Proposition Seien A, B ∈ K m×n , C ∈ K n×p , α ∈ K. Dann ist (A ± B)jk = Ajk ± Bjk ,

(6)

(αA)jk = αAjk ,

(7)

(AC)jk = Aj: C:k =

n X l=1

119

Ajl Clk .

(8)

120

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Beweis. (A ± B)jk ist die jte Komponente des Vektors (A ± B)ek = Aek ± Bek = A:k ± B:k , und daraus folgt (6). Ebenso ist (αA)jk die jte Komponente von (αA)ek = αA P:k , und (7) folgt. Schließlich ist (AC)jk die P jte Komponente von (AC)ek = AC:k = A:l Clk , und die jte Komponente davon ist Ajl Clk . Die andere Formel von (8) ergibt sich aus (AC)jk = eTj ACek = Aj: C:k . Man beachte, daß die Addition zweier Matrizen nur dann m¨oglich ist, wenn sie dieselbe Gr¨oße haben, da sie vom selben Raum V = Rn in denselben Raum W = Rm abbilden m¨ ussen. Ebenso ist die Multiplikation zweier Matrizen nur dann m¨oglich, wenn die erste Matrix genausoviele Spalten hat wie die zweite Zeilen, da die zweite (zuerst ausgef¨ uhrte) Matrix in den Raum abbilden muß, von dem aus die erste Matrix abbildet. Das Matrizenprodukt kann man sich u ¨bersichtlich im Falk’schen Schema merken: C B

A

(AB)C

AB

r

b

Die Berechnung von A−1 ist schwieriger und wird weiter unten beschrieben. ⊓ ⊔ 8.2 Beispiele. 1 2 3 4

! 3

2 0 1 3

!

!

=

=

−4 −4 −4 −4

6 0 3 9

!

!

,

,

! ! ! 0 1 2 0 + 6 1 + 8 2 + 10 6 9 12 = = , 3 4 5 0 + 12 3 + 16 6 + 20 12 19 26   ! 2 1 ! ! 1 2 3  2 + 6 + 12 1 + 4 + 9 20 14  = ,  3 2 = 0 1 2 0+3+8 0+2+6 11 8 4 3   2   ( 1 2 3 )  3  = (2 + 6 + 12) = 20, 4

1 2 3 4

!



5 6 7 8

121 

1 4

(−1 1)

1 4

   2 2 4 6      3 ( 1 2 3 ) =  3 6 9 , 4 4 8 12   ! ! ! 0 0 + 4 + 12 16 2 3   = ,  2 = 0 + 10 + 24 34 5 6 4 ! 2 3 = ( −1 + 4 −2 + 5 −3 + 6 ) = ( 3 3 3 ). 5 6

Man sieht, daß sich Zeilen- und Spaltenvektoren genau wie einzeilige und einspaltige Matrizen verhalten. (Da in den Summen (3)–(8) (und auch sp¨ater oft) die Indices doppelt vorkommen, u ¨ber die summiert wird, ist es in der Physik vielfach u blich, das Summenzeichen garnicht zu schrei¨ ben, wenn u ¨ber alle doppelt vorkommenden Indizes summiert werden soll (Einstein’sche Summenkonvention). Wir benutzen diese Konvention aber nicht.) 8.3 Definition (i) Die Transponierte der Matrix A ∈ K m×n ist die Matrix AT ∈ K n×m mit den Komponenten (AT )jk = Akj . (ii) Ist K ein Zahlk¨orper, so heißt die Matrix A∗ ∈ Kn×m mit den Komponenten (A∗ )jk = A¯kj die konjugiert Transponierte der Matrix A ∈ Km×n . (In manchen B¨ uchern schreibt man A′ statt AT und A† statt A∗ .)

Eine Matrix A heißt symmetrisch, falls AT = A, und Hermitesch, falls A∗ = A. Zum Beispiel ist 1 2 3 4 5 6 1 2i 3 4i

!T

=

1 3 2i 4i

!

!T ,



 1 4   =  2 5 , 3 6 !∗ 1 2i = 3 4i

1 3 −2i −4i

!

.

8.4 Proposition F¨ ur A, B ∈ K m×n , C ∈ K n×p , α ∈ K gilt: (AT )T = A,

(αA)T = αAT ,

(A ± B)T = AT ± B T , (AC)T = C T AT .

(9) (10) (11)

Ist K = K ein Zahlk¨orper, so gilt ebenso (A∗ )∗ = A,

(αA)∗ = α ¯ A∗ ,

(A ± B)∗ = A∗ ± B ∗ , (AC)∗ = C ∗ A∗ ,

(12) (13) (14)

122

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

und es ist ∗

x x=

n X k=1

|xk |2 ≥ 0

f¨ ur x ∈ Kn .

(15)

(Beim Transponieren eines Produkts kehrt sich also die Reihenfolge der Faktoren wie beim Invertieren um!) Beweis. (9) und (10) sind trivial, und (11) folgt aus X X ((AC)T )jk = (AC)kj = Akl Clj = Clj Akl X = (C T )jl (AT )lk = (C T AT )jk .

(12)–(14) gehen analog, und (15) folgt aus x∗ x =

X X X (x∗ )k xk = x¯k xk = |xk |2 ,

da x∗ ein Zeilenvektor mit den Komponenten x¯n ist.

8.5 Proposition (i) AB = I



⊓ ⊔

A surjektiv, B injektiv.

(ii) Ist A, B ∈ K n×n und AB = I, so sind A und B regul¨ar, und es gilt A = B −1 und B = A−1 . (iii) Ist A ∈ K n×n regul¨ar, so ist auch AT regul¨ar, und es ist (AT )−1 = (A−1 )T =: A−T .

(16)

(iv) Ist A ∈ Kn×n regul¨ar, so ist auch A∗ regul¨ar, und es ist (A∗ )−1 = (A−1 )∗ =: A−∗ .

(17)

(v) Ist A regul¨ar und symmetrisch oder Hermitesch, so gilt dasselbe von A−1 . Beweis. (i) Wegen ABx = x ist x das Bild von Bx unter der Abbildung A, also ist A surjektiv. Haben x und y dasselbe Bild, so ist x = ABx = ABy = y, also ist B injektiv. (ii) A ist injektiv und B surjektiv. Als Abbildungen zwischen R¨aumen K n gleicher Dimension sind A und B also bijektiv, und daher Umkehrabbildungen voneinander. (iii) Es ist AT (A−1 )T = (A−1 A)T = I T = I, nach (ii) also (A−1 )T = (AT )−1 . (iv) folgt ebenso. (v) Das folgt wegen (A−1 )T = (AT )−1 = A−1 bzw. (A−1 )∗ = (A∗ )−1 = A−1 .

⊓ ⊔

Außer der Transposition kann man mit Matrizen noch weitere n¨ utzliche Transformationen durchf¨ uhren. Dazu schauen wir uns zun¨achst einige spezielle Matrizen an.

123 8.6 Definition (i) Eine linke untere Dreiecksmatrix ist eine Matrix L ∈ K m×n mit Ljk = 0 f¨ ur j < k. L heißt normiert, falls alle Diagonalelemente Ljj = 1 sind. (ii) Eine rechte obere Dreiecksmatrix ist eine Matrix R ∈ K m×n mit Rjk = 0 f¨ ur j > k. (iii) Eine Diagonalmatrix ist eine Matrix D ∈ K m×n mit Djk = 0 f¨ ur j 6= k.

(iv) Eine Permutationsmatrix ist eine Matrix Pπ ∈ K n×n mit den Komponenten ( 1 falls k = πj, (Pπ )jk = 0 sonst,

(18)

wobei π eine Permutation der Zahlen 1 : n ist. Die Menge der Permutationen von 1 : n bezeichnen wir mit Sym(n). Das Symbol (jk) bezeichnet die Transposition von j und k, die j und k vertauscht und die u ¨ brigen Indices festl¨aßt. (v) Eine Rang 1-Matrix ist eine Matrix der Form xy T ∈ K m×n , x ∈ K m , y ∈ K n mit den Komponenten (xy T )jk = xj yk (j = 1 : m, k = 1 : n). (19) 8.7 Beispiele. Sei



  L=  



  R= 

1 0 0 0  D= 0 2 0 0 0 0 3 0  1 2  2 4  A=  4 8 5 10

1 2 4 7

0 3 5 8

1 2 0 3 0 0 0 0   , 3 6 12 15

0 0 6 9



  , 

4 7 5 8 6 9 0 10



  , 



L′ =

1 0 0 2 3 0 

  R =  ′

1 0 0 0

2 4 0 0

! 3 5 6 0

,



  , 

   1 0 0 1 0 0     D′ =  0 2 0  , D′′ =  0 0 0  , 0 0 3 0 0 1      0 0 1 1       , P =  1 0 0 , z =  2 ,  0 1 0 3

L und L′ sind untere Dreiecksmatrizen, R und R′ obere, und D, D′ und D′′ sind Diagonalmatrizen. A ist eine Rang 1-Matrix, A = xy T mit x = (1 2 4 5)T , y = (1 2 3)T . P ist eine Permutationsmatrix, zur Permutation π mit π1 = 3, π2 = 1, π3 = 2. Wie man an den Beispielen sieht und leicht allgemein zeigt, hat eine untere Dreiecksmatrix L ∈ K m×n mit n > m stets n − m Nullspalten am Ende, und eine obere Dreiecksmatrix R ∈ K m×n mit n < m ebenso m − n Nullzeilen am Ende. Diagonalmatrizen haben immer Nullzeilen oder Nullspalten, außer wenn sie quadratisch sind, wo es von den Diagonalelementen abh¨angt. In Rang 1-Matrizen sind je zwei Zeilen (und je zwei Spalten) linear

124

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

abh¨angig, d.h. alle Zeilen (und alle Spalten) sind Vielfache desselben Zeilenvektors (bzw. Spaltenvektors). Permutationsmatrizen haben ihren Namen von der Tatsache, daß sie bei Anwendung auf einen Vektor dessen Komponenten permutieren: X (Pπ x)j = (Pπ )jk xk = xπj . k

Im obigen Beispiel ist 

 3   Pz =  1 , 2



    0 1 0 3 1      T P P z =  0 0 1   1  =  2  = z, 1 0 0 2 3

d.h. P T geh¨ort zur inversen Permutation. Das gilt allgemein:

8.8 Proposition (i) F¨ ur beliebige Permutationen π1 , π2 , π ∈ Sym(n) gilt Pπ1 Pπ2 = Pπ2 π1 ,

(20)

(Pπ )−1 = (Pπ )T = Pπ−1 ,

(21)

die Permutationsmatrizen bilden also eine Gruppe. (ii) Ist A ∈ K m×n und π ∈ Sym(m), so ist Pπ A die Matrix mit den permutierten Zeilen (Pπ A)j: = Aπj:

(j = 1 : m).

(iii) Ist A ∈ K m×n und π ∈ Sym(n), so ist APπT die Matrix mit den permutierten Spalten (APπT ):k = A:πk

(k = 1 : n).

Beweis. (i) Aus (Pπ1 Pπ2 x)j = (Pπ2 x)π1 j = xπ2 π1 j = (Pπ2 π1 x)j folgt (20), und f¨ ur π 1 = π, π2 = π −1 folgt Pπ Pπ−1 = Pπ−1 π = Pid = I, also (Pπ )−1 = Pπ−1 . Nun ist (Pπ−1 )jk = 1 genau dann, wenn k = π −1 j, also j = πk ist, daher ist (Pπ−1 )jk = (Pπ )kj , also Pπ−1 = PπT . Daher gilt (21). P (ii) folgt aus (Pπ A)j: = (Pπ )jk Aj: = Aπj: , da nur der Summand mit k = πj zur Summe beitr¨agt. P P ⊓ ⊔ (iii) folgt ebenso aus (APπT ):k = A:j (PπT )jk = A:j (Pπ )kj = A:πk . 8.9 Proposition Sei A ∈ K m×n , x, y ∈ K m .

(i) Die Matrix (I − xy T )A entsteht aus A, indem ur j = 1 : m von der jten Zeile von A P man f¨ das xj -Fache der Linearkombination z T := yl Al: aller Zeilen von A abzieht: (I − xy T )A = A − xz T . (ii) Es gilt

(I − xy T )−1 = I + xy T , falls y T x = 0.

(22)

(iii) Ist P eine Permutationsmatrix, so ist P (I − xy T ) = (I − P x(P y)T )P.

(23)

125 Beweis. (i) Es ist (I − xy T )A = A − xy T A = A − xz T mit z T = y T A =

P

yl Al: .

(ii) Es ist (I − xy T )(I + xy T ) = I − xy T + xy T − xy T xy T = I − xy T xy T = I, falls y T x = 0. (iii) Die rechte Seite ist P − P xy T P T P = P − P xy T = P (I − xy T ).

Die folgenden illustrierenden Rechnungen dienen gleichzeitig dazu, die L¨osung linearer Gleichungssysteme vorzubereiten. ⊓ ⊔ 8.10 Beispiele. (i) Um die Matrix 

 1 2 3   A= 4 5 6  7 8 9

auf obere Dreiecksgestalt zu transformieren, ziehen wir von der zweiten und dritten Zeile von A das 4- bzw. 7-fache der ersten Zeile A1: ab und erhalten     1 2 3 1 2 3     A′ =  4 − 4 5 − 8 6 − 12  =  0 −3 −6  7 − 7 8 − 14 9 − 21 0 −6 −12

Wegen A1: = eT1 A k¨onnen wir Matrix  1  T I − s1 e1 =  0 0

erreichen:

dasselbe f¨ ur s 1   0 0 0   1 0 − 4 0 1 7 

 (I − s1 eT1 )A = 



 = 

1 0 −4 1 −7 0 1 −4 + 4 −7 + 7

= (0, 4, 7)T durch   0 0 1   0 0  =  −4 0 0 −7

 0 1  0  4 1 7 2 −8 + 5 −14 + 8

Ziehen wir nun das Doppelte der zweiten Zeile A′2: erhalten wir ebenso die Matrix    1 2 3    −3 −6  0 = 0 −6 + 6 −12 + 12

Multiplikation mit der  0 0  1 0  0 1

 2 3  5 6  8 9  3  −12 + 6  = A′ . −21 + 9

= eT2 A′ von A′ von der dritten ab, so  1 2 3  0 −3 −6  = R 0 0 0

in oberer Dreiecksform. Mit s2 = (0, 0, 2)T ist wieder       1 0 0 0 0 0 1 0 0       I − s2 eT2 =  0 1 0  −  0 0 0  =  0 1 0 , 0 0 1 0 2 0 0 −2 1

126

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME 

    1 0 0 1 2 3 1 2 3      (I − s2 eT2 )A′ =  0 1 0   0 −3 −6  =  0 −3 −6  = R. 0 −2 1 0 −6 −12 0 6 − 6 12 − 12

Wir haben also

R = (I − s2 eT2 )A′ = (I − s2 eT2 )(I − s1 eT1 )A = BA mit der Matrix 

    1 0 0 1 0 0 1 0 0      B = (I − s2 eT2 )(I − s1 eT1 ) =  0 1 0   −4 1 0  =  −4 1 0 , 0 −2 1 −7 0 1 1 −2 1 die sich als untere Dreiecksmatrix herausstellt. Wegen eT1 s1 = eT2 s2 = 0 kann man auch (22) anwenden und erh¨alt A = B −1 R = LR mit L = B −1 = (I − s1 eT1 )−1 (I   1 0 0 1 0   =  4 1 0  0 1 7 0 1 0 2

− s2 eT2 )−1 = (I + s1 eT1 )(I + s2 eT2 )    0 1 0 0    0  =  4 1 0 . 1 7 2 1

Man sieht, daß unterhalb der Diagonale von L gerade die Multiplikatoren stehen, die bei den Transformationen benutzt werden. (ii) Um die Matrix 

  A= 

 0 1 2 −4 −4 −3    2 2 1  6 7 6

auf obere Dreiecksform zu bringen, k¨onnen wir Vielfache der ersten Zeile nicht gebrauchen, um die Komponenten in der ersten Spalte zu Null zu machen. Wir vertauschen daher die erste Zeile mit der g¨ unstigeren dritten Zeile und erhalten 

  A′ = P(13) A =  

 2 2 1 −4 −4 −3   . 0 1 2  6 7 6

Nun ziehen wir Vielfache der ersten Zeile ab, entsprechend s1 = (0, −2, 0, 3)T , und erhalten 

  A′′ = (I − s1 eT1 )A′ =  

2 2 1 −4 + 4 −4 + 4 −3 + 2 0 1 2 6−6 7−6 6−3





    =  

2 0 0 0

 2 1 0 −1   . 1 2  1 3

127 Zum Bearbeiten der zweiten Spalte eignet sich die zweite tauschen nochmal die zweite und dritte Zeile:  2 2 1  0 1 2  A′′′ = P(23) A′′ =   0 0 −1 0 1 3

Zeile wieder nicht, und wir ver

  . 

Nun ziehen wir Vielfache der zweiten Zeile ab, entsprechend s2 = (0, 0, 0, 1)T , und erhalten   2 2 1  0 1 2    (4) T ′′′ A = (I − s2 e2 )A =  .  0 0 −1  0 0

1

Schließlich ziehen wir entsprechend s3 = (0, 0, 0, −1)T Vielfache der dritten Zeile ab, und erhalten die gesuchte Dreiecksmatrix   2 2 1  0 1 2    A(5) = (I − s3 eT3 )A(4) =   = R.  0 0 −1  0 0 0 Insgesamt ist

R = (I − s3 eT3 )(I − s2 eT2 )P(23) (I − s1 eT1 )P(13) A. Da man beide Vertauschungen offenbar auch gleich am Anfang h¨atte vornehmen k¨onnen, ohne daß sich die Zahlenwerte ¨andern (nur die Reihenfolge!), k¨onnen wir das als R = BP A,

B = (I − s3 eT3 )(I − s2 eT2 )(I − s′1 eT1 ),

P = P(23) P(13)

mit s′1 = P(23) s1 schreiben, und erhalten mit L = B −1 = (I − s′1 eT1 )−1 (I − s2 eT2 )−1 (I − s3 eT3 )−1  1 0 0  0 1 0  = (I + s′1 eT1 )(I + s2 eT2 )(I + s3 eT3 ) =   −2 0 1 3 1 −1

0 0 0 1

    

diesmal eine Darstellung der Form P A = LR mit einer Permutationsmatrix P , einer unteren Dreiecksmatrix L und einer oberen Dreiecksmatrix R. (Daß in L tats¨achlich wieder die Multiplikatoren stehen, haben wir nicht ausgerechnet, da es sich bald aus dem Beweis des Allgemeinfalls ergeben wird.) Daß sich beidesmal eine untere Dreiecksmatrix ergeben hat, ist kein Zufall, sondern folgt aus deren Gruppeneigenschaft.

128

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

8.11 Satz (i) Jede normierte untere Dreiecksmatrix L ∈ K n×n ist regul¨ar, und f¨ ur z ∈ K n l¨aßt sich y = L−1 z rekursiv aus den Gleichungen X yj = zj − Ljk yk (j = 1 : n) (24) k 1 braucht man zur Berechnung von yj nur die schon bekannten yk mit k < j. Daher ist y durch (24) eindeutig festgelegt. Insbesondere ist L injektiv, und als quadratische Matrix daher regul¨ar. X (L1 )jl (L2 )lk = 0, da im lten Term der Summe f¨ ur l ≤ j < k (ii) F¨ ur j < k ist (L1 L2 )jk = l

der ur l > j der erste Faktor verschwindet. Und es ist (L1 L2 )jj = X zweite Faktor und f¨ (L1 )jl (L2 )lj = 1, da nur der Term mit l = j beitr¨agt. Also ist L1 L2 normierte untere l

Dreiecksmatrix. F¨ ur die lte Spalte y = (L−1 ):l = L−1 el folgt aus (24) mit z = el wegen zj = 0 f¨ ur j < l induktiv die Beziehung yj = 0 f¨ ur j < l, und dann yl = zl = 1. Also ist −1 −1 (L )jl = yj = 0 f¨ ur j < l und (L )ll = yl = 1, d.h. L−1 ist ebenfalls normierte untere Dreiecksmatrix. ⊓ ⊔ (24) ist praktisch sehr n¨ utzlich, um eine zul¨osen. Z.B. ist f¨ ur  1 0  L= 2 1 3 2

Gleichung Ly =   0 4   0 , z =  3 1 1

Ly = z in ausgeschriebener Form gegeben durch

z bei gegebenem z nach y auf  ,

y1 = 4, 2y1 + y2 = 3, 3y1 + 2y2 + y3 = 1, und man erh¨alt sofort aus y1 = 4, y2 = 3 − 2y1 = −5, y3 = 1 − 3y1 − 2y2 = −1 die L¨osung y = (4, −5, −1)T . Es ist interessant, daß man gar nicht wissen muß, wie die Komponenten von L−1 aussehen und trotzdem y = L−1 z berechnen kann. Die oberen Dreiecksmatrizen in den Beispielen 8.10 waren nicht normiert, und auch nicht unbedingt quadratisch. Deshalb ist das L¨osungsverhalten f¨ ur Gleichungen der Form Rx = y mit oberen Dreiecksmatrizen R auch etwas komplizierter. Eine einfache L¨osung ergibt sich, falls R Stufenform hat.

129 8.12 Definition Man sagt, eine obere Dreiecksmatrix R ∈ K m×n hat r-Stufenform, falls f¨ ur j ≤ r die jte Zeile eine Komponente Rjj ′ 6= 0 enth¨alt, der kleinste solche Index j ′ die Beziehung 1′ < 2′ < . . . < r′ erf¨ ullt, und alle Zeilen mit Index j > r verschwinden. Ein m¨ogliches Aussehen einer 6 × 8-Matrix  n x x   0 n x   0 0 n R=  0 0 0    0 0 0 0 0 0

in 5-Stufenform ist  x x x x x  x x x x x   x x x x x  , 0 n x x x    0 0 0 0 n  0 0 0 0 0

wobei x f¨ ur beliebige Zahlen und n f¨ ur Zahlen 6= 0 stehen.

8.13 Satz R ∈ K m×n habe r-Stufenform. Dann ist die Gleichung Rx = y genau dann l¨osbar, wenn yj = 0 f¨ ur alle j > r gilt. In diesem Fall erh¨alt man alle L¨osungen, indem man die n−r Komponenten xk mit k ∈ / {1′ , . . . , r′ } beliebig w¨ahlt, und die u ¨ brigen Komponenten r¨ uckw¨arts rekursiv aus den Gleichungen X Rjk xk )/Rjj ′ (j = r, r − 1, . . . , 1) (25) xj ′ = (yj − k>j ′

berechnet. Die L¨osungsmenge {x ∈ K n |Rx = y} ist in diesem Fall eine affine Menge der Dimension n − r. P Beweis. Wegen yj = (Rx)j = Rjk xk = 0 f¨ ur j > r kann es nur dann L¨osungen geben, wenn yj = 0 f¨ ur j > r. F¨ ur j ≤ r erh¨alt man dann die Bedingungen X X Rjk xk (j = 1 : r), yj = Rjk xk = Rjj ′ xj ′ + k>j ′

die man nach xj ′ aufl¨osen kann. Es folgt (25); offensichtlich kann man die xk (k ∈ / {1′ , . . . , r′ }) beliebig w¨ahlen und dann mit (25) die u ⊓ ⊔ ¨brigen Komponenten ausrechnen. 8.14 Beispiel. (i) Das lineare Gleichungssystem x1 + 2x2 + 3x3 = 3, 4x1 + 5x2 + 6x3 = 3, 7x1 + 8x2 + 9x3 = 3 l¨aßt sich in Matrixform als Ax = z mit   1 2 3   A =  4 5 6 , 7 8 9



 3   z= 3  3

130

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

schreiben. In Beispiel 8.10(i) hatten wir  1  A = LR =  4 7

A zerlegt als   0 0 1 2 3   1 0   0 −3 −6  . 2 1 0 0 0

Aus z = Ax = LRx folgt Rx = L−1 z = y. Man bekommt y durch L¨osen von Ly = z, ⇒ ⇒ ⇒

y1 = z1 4y1 + y2 = z2 7y1 + 2y2 + y3 = z3

y1 = 3, y2 = 3 − 4 · 3 = −9, y3 = 3 − 7 · 3 − 2(−9) = 0.

R hat 2-Stufenform, und wegen y3 = 0 ist das Gleichungssystem Rx = y l¨osbar. Man erh¨alt alle L¨osungen x, indem man x3 = λ beliebig w¨ahlt und dann x1 , x2 aus x1 + 2x2 + 3x3 = y1 , −3x2 − 6x3 = y2 berechnet. Aus der zweiten Gleichung folgt x2 = −y2 /3 − 2x3 = 3 − 2λ, und aus der ersten dann x1 = y1 − 2x2 − 3x3 = 3 − 2(3 − 2λ) − 3λ = λ − 3. Die allgemeine L¨osung ist also   λ−3   x =  3 − 2λ  (λ ∈ K), λ

und indem man beispielsweise λ = 0, 1, 2, . . . setzt, erh¨alt man spezielle L¨osungen       −3 −2 −1       x =  3  ,  1  ,  −1  , . . . . 0 1 2 (ii) Das lineare Gleichungssystem x2 + 2x3 −4x1 − 4x2 − 3x3 2x1 + 2x2 + x3 6x1 + 7x2 + 6x3

= = = =

0, 1, −1, −2,

l¨aßt sich in Matrixform als Ax = b mit b = (0, 1, −1, −2)T und der Matrix A aus Beispiel 8.10(ii) schreiben. Dort fanden wir eine Zerlegung 

  P A = LR =  

1 0 −2 3

0 0 1 0 0 1 1 −1

0 0 0 1

    

2 0 0 0

2 1 1 2 0 −1 0 0

    

131 mit P = P(23) P(13) . Aus P b = P Ax = LRx =: z folgt wieder Rx = L−1 z = y. Man bekommt z als Permutation von b, 

  z = P b = P(23) P(13)  

0 1 −1 −2





     = P(23)   

−1 1 0 −2





    =  

−1 0 1 −2



  , 

y durch L¨osen von Ly = z, y1 y2 −2y1 + y3 3y1 + y2 − y3 + y4

= = = =

z1 z2 z3 z4

⇒ ⇒ ⇒ ⇒

y1 y2 y3 y4

= −1, = 0, = 1 + 2(−1) = −1, = −2 − 3(−1) − 0 + (−1) = 0.

R hat 3-Stufenform und wegen y4 = 0 ist das Gleichungssystem Rx = y l¨osbar. (H¨atten wir b4 = −1 gehabt, so w¨are z4 = −1 und y4 = 1 gewesen, und es h¨atte keine L¨osung existiert.) Diesmal kann man keine Variable frei w¨ahlen, da r = n = 3 ist, und man erh¨alt x aus 2x1 + 2x2 + x3 = y1 , x2 + 2x3 = y2 , −x3 = y3 . Es folgt x3 = −y3 = 1, x2 = y2 − 2x3 = −2, x1 = (y1 − x3 − 2x2 )/2 = 1. Also gibt es die eindeutige L¨osung x = (1, −2, 1)T . Wie in diesen Beispielen kann man immer vorgehen. Ein beliebiges lineares Gleichungssystem mit m Gleichungen und n Variablen x1 , . . . , xn , etwa A11 x1 A21 x1 Am1 x1

+ . . . + A1n xn = b1 , + . . . + A2n xn = b2 , .. .. .. . . . + . . . + Amn xn = bm ,

kann kurz in Matrixform Ax = b geschrieben werden. Kennt man eine Zerlegung P A = LR der permutierten Matrix P A, so bekommt man die L¨osungen aus den drei Schritten z = P b, y = L−1 z und x als L¨osung von Rx = y. Die Zerlegung findet man immer wie im Beispiel 8.10: 8.15 Satz Zu jeder Matrix A ∈ K m×n gibt es eine Permutationsmatrix P ∈ K m×m , eine normierte untere Dreiecksmatrix L ∈ K m×m und eine obere Dreiecksmatrix R ∈ K m×n in Stufenform, f¨ ur die die Gleichung P A = LR (26) gilt. (Man nennt (26) eine permutierte Dreieckszerlegung von A.)

132

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Beweis. F¨ ur Matrizen mit nur einer Zeile (m = 1) ist die Aussage trivial, da P = 1, L = 1, R = A die Bedingungen erf¨ ullt. Wir nehmen daher an, es sei m > 1 und die Aussage ist richtig f¨ ur Matrizen mit nur m − 1 Zeilen.

Ist A ∈ K m×n die Nullmatrix, so geht wieder P = I, L = I, R = 0. Andernfalls suchen wir uns das kleinste k, f¨ ur das die kte Spalte von A eine Komponente Alk6=0 enth¨alt. Wir bezeichnen mit A′ die Matrix, die aus A durch Weglassen der ersten Zeile und Ersetzen der lten Zeile aT := Al: durch die erste Zeile entsteht; dann ist ! T a P(1l) A = , ak = Alk 6= 0. A′ Wir ziehen nun von den Zeilen A′j: von A′ das sj -Fache von aT ab, wo s = −A′:k /ak . Die entstehende Matrix A′′ = A′ − saT hat dann in der kten Spalte lauter Nullen, und nach Konstruktion in den vorherigen Spalten auch. Nun benutzen wir, daß nach Induktionsannahme A′′ eine Dreieckszerlegung besitzt, P ′′ A′′ = L′′ R′′ . F¨ ur die zusammengesetzte Permutationsmatrix ! 1 0 P = P(1l) 0 P ′′

gilt dann PA = = =

1 0 0 P ′′

!

P(1l) A =

1 0 0 P ′′

!

aT A′

!

=

aT P ′′ A′

!

! ! aT aT = P ′′ (saT + A′′ ) P ′′ saT + L′′ R′′ ! ! 1 0 aT . P ′′ s L′′ R′′

Also ist P A = LR mit den Dreiecksmatrizen ! 1 0 L= , P ′′ s L′′

R=

aT R′′

!

.

Offensichtlich ist L normiert. R hat Stufenform, da die erste nicht verschwindende Spalte von aT die kte ist, und R′′ Stufenform mit k f¨ uhrenden Nullspalten hat. Die ersten k Spalten ′′ ′′ von R verschwinden n¨amlich wegen R el = (L′′ )−1 P ′′ A′′ el = (L′′ )−1 P ′′ 0 = 0. ⊓ ⊔ Man braucht sich P und L nicht zu merken, wenn man die rechte Seite b eines linearen Gleichungssystems Ax = b gleichzeitig mit der Koeffizientenmatrix A bearbeitet. Das ergibt sich allgemeiner f¨ ur die L¨osung einer Matrixgleichung AX = B aus dem folgenden Satz. 8.16 Satz Es sei A ∈ K m×n und B ∈ K m×p , und P (A | B) = L(R | S) (mit R ∈ K m×n , S ∈ K m×p ) sei eine permutierte Dreieckszerlegung der um die rechte Seite erweiterten Koeffizientenmatrix (A | B). Dann ergibt sich die allgemeine L¨osung X ∈ K n×p der Gleichung AX = B spaltenweise durch L¨osen der dreieckigen Gleichungssysteme RX:k = S:k

(k = 1, . . . , p).

(27)

133 Beweis. Ist AX = B, so ist wegen   X = AX + B(−I) = AX − B = 0 (A | B) −I auch



X RX − S = (R | S) −I





X = L P (A | B) −I −1



= 0,

also RX = S und (27). Da (R | S) Stufenform hat, gilt dasselbe nat¨ urlich auch f¨ ur R. Umgekehrt folgt aus (27) wieder RX − S = 0 und daher     X X −1 = P −1 L(RX − S) = 0, = P L(R | S) AX − B = (A | B) −I −I

also AX = B.

⊓ ⊔

Die Reduktion von (A | B) auf Dreiecksgestalt (R | S) (Faktorisierung) und anschließende L¨osung der dreieckigen Gleichungssysteme (27) (Ru ¨ cksubstitution) bezeichnet man als Gauß’sches Eliminationsverfahren, kurz Gauß-Elimination. Es ist das Standardverfahren zur L¨osung linearer Gleichungssysteme. In der Praxis treten zum Teil Probleme auf, weil man in der Regel nur mit beschr¨ankter Rechengenauigkeit arbeiten kann, und man muß bei der Wahl der Permutationen (der sogenannten Pivotsuche) Sorgfalt walten lassen. In hochdimensionalen Gleichungssystemen, wie sie in vielen Anwendungen vorkommen (manchmal mit Millionen von Variablen!), sind die Matrizen meist du ¨ nnbesetzt, d.h. die meisten Koeffizienten sind Null. In diesem Fall ¨ muß man zus¨atzliche Uberlegungen anstellen, damit der Rechenaufwand gering gehalten werden kann. Derartige Fragestellungen werden im Rahmen der numerischen Mathematik behandelt. Als Spezialfall der Gleichung AX = B kann man nun auch inverse Matrizen berechnen. 8.17 Satz (i) Eine quadratische obere Dreiecksmatrix R ∈ K n×n ist genau dann regul¨ar, wenn alle Diagonalelemente Rjj (j = 1, . . . , n) von Null verschieden sind. (ii) Eine quadratische Matrix A ∈ K n×n mit permutierter Dreieckszerlegung P A = LR ist genau dann regul¨ar, wenn R regul¨ar ist. (iii) Aus einer permutierten Dreieckszerlegung P (A | I) = L(R | S) bekommt man X := A−1 spaltenweise durch L¨osen der dreieckigen Gleichungssysteme RX:k = S:k (k = 1, . . . , n). Beweis. (i) Das folgt sofort aus Satz 8.13, da die L¨osung von Rx = b genau dann immer existiert und eindeutig ist, wenn 1′ = 1, . . ., n′ = n, also wenn Rjj 6= 0 f¨ ur j = 1, . . . , n.

(ii) Ist A regul¨ar, so auch R = L−1 P A, da L, P, A Automorphismen von Rn sind und die Automorphismen eine Gruppe bilden. Ist umgekehrt R regul¨ar, so aus demselben Grund auch A = P −1 LR. (iii) Man muß n¨amlich gerade AX = I l¨osen. F¨ ur 2 × 2-Matrizen kann man die Inverse explizit angeben:

⊓ ⊔

134

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

8.18 Proposition Es ist a b c d

!−1

=

1 ad − bc

d −b −c a

!

,

!

= (ad − bc)I.

(28)

falls ad − bc 6= 0. (Im andern Fall ist die Matrix singul¨ar.) Beweis. Es ist a b c d

!

d −b −c a

!

=

ad − bc 0 0 ad − bc

  d auf und −b Ist ad − bc 6= 0, so folgt daraus (28). Ist aber ad − bc = 0, so folgt, daß −c a Null abgebildet werden. Der Nullraum ist also nichttrivial (außer wenn a = b = c = d = 0 ist, und die Matrix offensichtlich singul¨ar ist), und die Matrix ist dann singul¨ar. ⊓ ⊔ Wichtig: Ist A regul¨ar, so ist es einfacher, x = A−1 b oder X = A−1 B als L¨osung von Ax = b bzw. AX = B zu berechnen als durch explizites Berechnen von A−1 und anschließende Multiplikation! Nach diesen mehr rechnerischen Aspekten wollen wir nun noch einige allgemeine Eigenschaften der L¨osungsmenge von linearen Gleichungssystemen betrachten. 8.19 Definition (i) Wir nennen ein lineares Gleichungssystem Ax = b

(29)

homogen, falls b = 0, andernfalls inhomogen. (ii) Ax = 0 heißt das zu (29) geh¨ orige homogene Gleichungssystem. Ein homogenes Gleichungssystem hat immer die triviale L¨ osung x = 0. (iii) Der Rang eines Gleichungssystems (29) ist der Rang der Koeffizientenmatrix, rank A = dim Range A. Die L¨osungen eines homogenen Gleichungssystems Ax = 0 sind genau die Elemente im Nullraum (Kern) von A. Die folgenden Aussagen sind einfach Umformulierungen von Ergebnissen von Kapitel 5 (Proposition 5.13, Proposition 5.11, Satz 5.32 und Satz 5.34(iv)) in der Sprache der linearen Gleichungssysteme. 8.20 Satz (Superpositionsprinzip) (i) Die allgemeine L¨osung eines inhomogenen Gleichungssystems erh¨alt man aus einer speziellen L¨osung, indem man eine beliebige L¨osung des zugeh¨origen homogenen Gleichungssystems dazuaddiert. (ii) Die L¨osungen eines l¨osbaren linearen Gleichungssystems Ax = b (A ∈ K m×n , b ∈ K m ) bilden eine affine Menge der Dimension dim Null A = n − rank A. (Man nennt diese Dimension die Zahl der Freiheitsgrade des Systems.)

135 Beweis. (i) Ist x0 eine spezielle L¨osung und x irgendeine L¨osung, so ist Ax0 = b = Ax, also A(x − x0 ) = 0. Also ist x′ := x − x0 eine L¨osung des homogenen Systems und x = x0 + x′ . F¨ ur eine beliebige L¨osung x′ des homogenen Gleichungssystems Ax′ = 0 gilt umgekehrt A(x0 + x′ ) = Ax0 + Ax′ = b + 0 = b, d.h. x = x0 + x′ ist eine L¨osung des inhomogenen Systems. (ii) Die L¨osungen bilden wegen (i) eine Translation des Nullraums von A, also eine affine Menge der Dimension dim Null A. Nach der Dimensionsformel (Satz 5.32) ist aber dim Null A = dim Def A − dim Range A = n − rank A. ⊓ ⊔ 8.21 Folgerung (i) Ein inhomogenes Gleichungssystem (29) ist genau dann eindeutig l¨osbar, wenn die rechte Seite b im Bildraum von A liegt und das zugeh¨orige homogene Gleichungssystem nur die triviale L¨osung hat. (ii) Ein inhomogenes Gleichungssystem mit gleich vielen Gleichungen wie Unbekannten ist genau dann eindeutig l¨osbar, wenn das zugeh¨orige homogene Gleichungssystem nur die triviale L¨osung hat. Um dem Rang eine anschauliche Interpretation geben zu k¨onnen, beweisen wir zuerst ein paar Rechenregeln. 8.22 Proposition Sei A ∈ K m×n . Dann gilt rank AB = rank A,

falls B ∈ K n×p surjektiv,

(30)

rank BA = rank A,

falls B ∈ K p×m injektiv,

(31)

rank A = rank AT = rank A∗ ,

(32)

rank A∗ A = rank AA∗ = rank A,

(33)

rank A ≤ min{m, n}.

(34)

(Die Formeln mit konjugiert transponierten Matrizen gelten nat¨ urlich nur, wenn K = K ein Zahlk¨orper ist.) Beweis. (30): Jedes Bild ABx unter AB ist auch Bild Ay von y = Bx unter A. Ist B surjektiv, so kann man jede Gleichung Bx = y nach x aufl¨osen, also ist umgekehrt jedes Bild Ay unter A auch Bild ABx unter AB. Daher ist Range AB = Range A, und rank AB = dim Range AB = dim Range A = rank A. (31): Sei U = Range A, U ′ = Range BA. Offenbar ist B|U eine surjektive lineare Abbildung von U nach U ′ . Ist B injektiv, so hat jedes Bild von B nur ein Urbild, dasselbe gilt dann aber auch von B|U . Daher ist B|U sogar bijektiv. Nach Satz 5.34(iii) ist also dim U ′ = dim U , und daher rank BA = dim U ′ = dim U = rank A. (32): Nach Satz 5.37 kann man A in der Form A = C −1 JB mit Koordinatensystemen B = φV von V = Rn und C = φW von W = Rm und einer Diagonalmatrix J mit Einsen und Nullen auf der Diagonalen schreiben. Da Koordinatensysteme bijektive lineare Abbildungen sind, sind B und C regul¨ar, also auch C −1 . Nach (30) und (31) ist also

136

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

rank A = rank C −1 JB = rank J. Die transponierten Matrizen B T und C −T sind auch regul¨ar, und da J symmetrisch ist, ist rank AT = rank(C −1 JB)T = rank B T JC −T = rank J. Also ist rank AT = rank A. Genauso sieht man rank A∗ = rank A. (33): Wir zeigen zun¨achst, daß A und A∗ A denselben Nullraum haben.PIst Ax = 0, so ist A∗ Ax = A∗ 0 = 0. Ist umgekehrt A∗ Ax = 0 und y = Ax, so ist |yk |2 = y ∗ y = ∗ ∗ ∗ ∗ (Ax) Ax = x A Ax = x 0 = 0 nach (15). Also m¨ ussen alle yk verschwinden, d.h. es ∗ ist y = 0. Also ist Ax = 0 gleichwertig mit A Ax = 0, d.h. Null A∗ A = Null A. Mit der Dimensionsformel ergibt sich daraus rank A∗ A = dim Def A∗ A − dim Null A∗ A = n − dim Null A = dim Def A − dim Null A = rank A. Mit B := A∗ ist wegen B ∗ = (A∗ )∗ = A dann auch rank AA∗ = rank B ∗ B = rank B = rank A∗ = rank A. (34) ergibt sich schließlich aus rank A = dim Range A = dim Def A−dim Null A ≤ dim Def A = n und rank A = rank AT = dim Def AT − dim Null AT ≤ dim Def AT = m. ⊓ ⊔ 8.23 Satz Sei A ∈ K m×n .

(i) Die Maximalzahl linear unabh¨angiger Spalten von A ist rank A. (ii) Die Maximalzahl linear unabh¨angiger Zeilen von A ist rank A. (iii) A ist genau dann surjektiv, wenn rank A = m. (iv) A ist genau dann injektiv, wenn rank A = n. (v) A ist genau dann regul¨ar, wenn rank A = m = n.

Beweis. (i) Sind s1 , . . . , sr linear unabh¨angige Spalten von A mit maximalem r, so sind die u ¨brigen Spalten von diesen linear abh¨angig, also wird Range A schon von s1 , . . . , sr aufgespannt. Nach Satz 5.25(iii) bilden die s1 , . . . , sr also eine Basis von Range A. Daher ist rank A = dim Range A = r. (ii) Sind s1 , . . . , sr linear unabh¨angige Zeilen von A, so sind sT1 , . . . , sTr linear unabh¨angige Spalten von AT . Also ist die Maximalzahl linear unabh¨angiger Zeilen gerade der Rang von AT , und das ist dasselbe wie der Rang von A. (iii)–(v) folgen sofort aus (i) und (ii) und Satz 5.25.

⊓ ⊔

Zur praktischen Berechnung des Rangs benutzt man am besten Gauß-Elimination und wendet dann den folgenden Satz an. 8.24 Satz Ist P A = LR eine permutierte Dreieckszerlegung von A mit R in r-Stufenform, so ist rank A = r. Beweis. Da P und L regul¨ar sind, ist rank A = rank P −1 LR = rank R = dim Def R − dim Null R = n − dim Null R. Der Nullraum von R hat aber die Dimension n − r, wie man sofort aus der L¨osungsformel f¨ ur Systeme in Stufenform (Satz 8.13) entnimmt. Also ist rank A = n − (n − r) = r. ⊓ ⊔ Zum Abschluß erw¨ahnen wir noch einen Zusammenhang zwischen Gleichungssystemen mit konjugiert transponierten Matrizen.

137 8.25 Satz (Fredholm-Alternative) K sei Zahlk¨orper und A ∈ Km×n . Dann ist das Gleichungssystem Ax = b genau dann f¨ ur alle b ∈ K m l¨osbar, wenn das konjugiert transponierte System A∗ y = 0 nur die triviale L¨osung besitzt. Beweis. (i) Ist y eine nichttriviale L¨osung A∗ y = 0, so kann das System Ax =Py keine L¨osung haben. Aus Ax = y und (15) bekommt man n¨amlich den Widerspruch 0 < |yk |2 = y ∗ y = (Ax)∗ y = x∗ A∗ y = x∗ 0 = 0.

(ii) Hat A∗ y = 0 nur die triviale L¨osung, so ist dim Null A∗ = 0 und daher rank A = rank A∗ = dim Range A∗ = dim Def A∗ − dim Null A∗ = m − 0 = m. Nach Satz 8.23(iii) ist A also surjektiv, d.h. jedes b ∈ Km ist als Bild b = Ax eines Vektors x ∈ Kn darstellbar. ⊓ ⊔

138

KAPITEL 8. MATRIZEN UND LINEARE GLEICHUNGSSYSTEME

Kapitel 9 Tensoren und Determinanten Tensoren sind Verallgemeinerungen von Vektoren und Matrizen. Analog wie Vektoren und Matrizen Objekte sind, deren Komponenten durch ein bzw. zwei Indices festgelegt sind, sind Tensoren Objekte, deren Komponenten durch mehrere Indices festgelegt sind. Die Anzahl p der Indices ist in physikalischen Anwendungen meist ≤ 4; die F¨alle p = 2 (Matrizen), p = 1 (Vektoren) und sogar p = 0 (Skalare) sind dabei formal eingeschlossen. (Im physikalischen Sprachgebrauch ist jedoch oft stillschweigend p ≥ 2 vorausgesetzt.) Da in der linearen Algebra alle betrachteten Objekte m¨oglichst koordinatenunabh¨angig untersucht werden, ben¨otigt man ein Konzept, das in Koordinaten betrachtet gerade die Tensoren ergibt. Das richtige Konzept ist das der Multilinearform, dessen Eigenschaften in diesem Kapitel untersucht werden. Als wichtigen Spezialfall behandeln wir außerdem die Determinante. Da in den Anwendungen h¨aufig Tensorfelder betrachtet werden, deren Komponenten noch von einer Ortsvariablen abh¨angen, also Funktionen sind, werden wir von den Komponenten nur verlangen, daß sie zu einem kommutativen Ring R geh¨oren, der den Konstantenk¨orper K enth¨alt; die wichtigen Spezialf¨alle sind also R = K (f¨ ur konstante Tensoren), k R = C (Ω, K) (f¨ ur Tensorfelder); im zweiten Fall identifiziert man konstante Funktionen mit dem entsprechenden K¨orperelement. Offenbar ist jeder K enthaltende Ring ein K-Vektorraum. In diesem Kapitel ist K ein beliebiger K¨orper. 9.1 Definition V sei K-Vektorraum, p ∈ N0 , [p] := 1, . . . , p. (i) Mit V ×p bezeichnen wir den K-Vektorraum aller p-Tupel (a1 , . . . , ap ) mit al ∈V f¨ ur l = 1, . . . , p und komponentenweise Operationen. (Es ist sinnvoll, Vektoren nebeneinander statt – wie im V p – untereinander anzuordnen; f¨ ur p = 2, 3 spricht man von bfPaaren (a1 , a2 ) und Tripeln (a1 , a2 , a3 ).) (ii) Eine p-Linearform u ¨ ber V (mit Werten in R) ist eine Abbildung B : V ×p → R mit der Eigenschaft, daß f¨ ur beliebige feste al ∈ V (l 6= k) die Abbildung ak → B(a1 , . . . , ak , . . . , ap ) 139

140

KAPITEL 9. TENSOREN UND DETERMINANTEN linear ist. F¨ ur p = 1, 2, 3 redet man von Linearformen, Bilinearformen und Trilinearformen.

Offenbar bilden die p-Linearformen u ¨ber V wieder einen K-Vektorraum. 9.2 Beispiel. Sei V = K n , R = K. Die Elemente von V ×p = K n×p sind p-Tupel von Spaltenvektoren der L¨ange n, also n × p-Matrizen. Man kann die Argumente einer p-Linearform B also zu einer einzigen Matrix zusammenfassen: B(A) := B(A·1 , . . . , A·p )

f¨ ur A ∈ K n×p .

Je nach den Umst¨anden verwenden wir diese k¨ urzere Bezeichnungsweise. (i) p = 1. Eine Linearform hat einen Vektor als Argument und ist linear in diesem Argument. Also ist eine Linearform B dasselbe wie eine lineare Abbildung B : V → R. Ein typisches Beispiel ist die f¨ ur festes u ∈ K n durch B(a) :=

n X j=1

uj a j = u T a = u · a

(1)

definierte Linearform. Die Komponenten uj erh¨alt man als Werte an der Stelle a = e(j) : uj = B(e(j) ).

(2)

(ii) p = 2. Eine Bilinearform B hat zwei Vektoren als Argumente und ist linear in jedem Argument separat: B(λa + µb, c) = λB(a, c) + µB(b, c), B(a, λb + µc) = λB(a, b) + µB(a, c). Ein typisches Beispiel ist die f¨ ur festes A ∈ Kn×n durch B(a, b) :=

n X

Ajk aj bk = aT Ab

(3)

j,k=1

definierte Bilinearform; man ”sieht” die Linearit¨at in a (bei festem b) und in b (bei festem a) sofort aus dieser Darstellung. Die Komponenten enth¨alt man jetzt aus Ajk = B(e(j) , e(k) ).

(4)

Zwei Spezialf¨alle sind besonders wichtig: Aus (1) folgt leicht B(a, b) = B(b, a)

falls A symmetrisch

(5)

ist (Ajk = Akj f¨ ur j, k = 1, . . . , n), und B(a, a) = 0 ist (Ajk = −Akj f¨ ur j, k = 1, . . . , n).

falls A antisymmetrisch

(6)

141 (iii) p = 3. Eine einfache Trilinearform ist das Spatprodukt von drei Vektoren a, b, c ∈ R3 , ε(a, b, c) := (a × b) · c dem man die Linearit¨at in jedem Argument ebenfalls ansieht. Aus den Eigenschaften des Kreuzprodukts (a × b ⊥ a, b und a × a = 0) folgt ε(a, a, c) = ε(a, b, a) = ε(a, b, b) = 0,

(7)

in Analogie zur Antisymmetrie von Bilinearformen. (iv) p = 0. Dieser Fall ist etwas seltsam, aber als Grenzfall doch manchmal n¨ utzlich. Der ×0 Raum V besteht nur aus dem leeren Tupel () und ist ein nulldimensionaler Raum. Eine 0-Linearform B ist festgelegt durch das Bild B() des leeren Tupels; also sind die 0Linearformen (bis auf die Bezeichnungsweise) gerade die Skalare (f¨ ur R = K) bzw. Skalar∞ felder (f¨ ur R = C (Ω, K)). Die Eigenschaften (5)-(7) der Beispiele lassen sich auf den Allgemeinfall u ¨bertragen. 9.3 Definition (i) Eine p-Linearform B heißt symmetrisch, falls B(aπ1 , ..., aπp ) = B(a1 , ..., ap ) f¨ ur jede Permutationπ ∈ Sym(p), und alternierend, falls ak = al , k 6= l ⇒ B(a1 , ..., ap ) = 0.

(8)

(Als Grenzf¨alle sind p-Linearformen mit p ≤ 1 zugleich symmetrisch und alternierend.) (ii) Eine alternierende p-Linearform wird kurz als p-Form bezeichnet; die Vp Menge aller (V ) (gelesen p-Formen u ber V ( mit Werten in K) ist ein Vektorraum, der mit ¨ ”Dach-p von V ”) bezeichnet wird. p-Formen treten in vielen Anwendungen auf, zum Beispiel werden die Elektronenh¨ ullen von Atomen oder Molek¨ ulen durch ”antisymmetrische Wellenfunktionen” beschrieben, die nichts anderes sind als p-Formen u ¨ber dem (unendlichdimensionalen) Raum V der ”EinElektron-Wellenfunktionen”; p ist dabei die Anzahl der Elektronen; ak entspricht dem Zustand des k-ten Elektrons. Die Eigenschaft (8) dr¨ uckt das Pauli-Verbot aus, daß zwei Elektronen im Atom nicht denselben Zustand einnehmen k¨onnen. Symmetrische p-Linearformen treten haupts¨achlich f¨ ur p = 2 auf; wichtige Beispiele symmetrischer Bilinearformen sind das Skalarprodukt S(x, y) = x · y (x, y ∈ Rn ) und in der Relativit¨atstheorie die Minkowski-Metrik M (x, y) = c2 x0 y0 − x1 y1 − x2 y2 − x3 y3 (x, y ∈ R1,3 );

142

KAPITEL 9. TENSOREN UND DETERMINANTEN

dabei ist R1,3 = {(x0 , x1 , x2 , x3 )|xj ∈ R}; x0 ist die Zeitkoordinate, x1:3 sind die Raumkoordinaten, c ist die Lichtgeschwindigkeit. Mit Hilfe von (4) lassen sich die zugeh¨origen Matrizen bestimmen: Zum Skalarprodukt geh¨ort die Matrix mit Komponenten Ajk = S(e(j) , e(k) ) = δjk , also die Einheitsmatrix, zur Minkowski-Metrik die (mit 0:3 statt 1:4 indizierte) Matrix  2  c 0 0 0  0 −1 0 0    .   0 0 −1 0  0

0

0

−1

Die Komponentendarstellung u ¨bertr¨agt sich auf allgemeine p-Linearformen u ¨ber endlichdimensionalen Vektorr¨aumen V ; wir betrachten jedoch zun¨achst nur den Fall V = K n in der Standardbasis. 9.4 Satz Es gibt genau eine p-Linearform B u ¨ ber K n mit vorgegebenen Koordinaten Bk1 ,...,kp := B(e(k1 ) , ..., e(kp ) ),

(9)

n¨amlich die p-Linearform mit n X

B(a1 , ..., ap ) =

Bk1 ...kp (a1 )k1 ...(ap )kp .

(10)

k1 ,...,kp =1

Die (durch [n]p indizierte) Familie der Koordinaten nennt man einen Tensor p-ter Stufe (f¨ ur p = 1: Vektor, f¨ ur p = 2: Matrix, f¨ ur p = 0: Skalar; hier muß man die leere Folge, das leere Tupel und das leere Produkt betrachten). Beweis. Die durch (10) definierte Abbildung ist offenbar in jedem Argument linear, also eine p-Linearform. Setzt man Einheitsvektoren ein, so bleiben in der Summe f¨ ur B(e(l1 ) , ..., e(lp ) ) (l1 ) (lp ) nur die Terme u ur die alle Produkte (e )k1 ...(e )kp 6= 0 sind. Dies erfordert k1 = ¨brig, f¨ l1 , ..., kp = lp . Also bleibt nur ein Term u ¨brig, B(e(l1 ) , . . . , e(lp ) ) = Bl1 ...lp · 1 · ... · 1 = Bl1 ...lp , so daß (9) gilt. Daß (10) die einzige M¨oglichkeit ist, sieht man direkt f¨ ur p = 1: ! X X X (a1 )k1 Bk1 (a1 )k1 e(k1 ) = (a1 )k1 B(e(k1 ) ) = B(a1 ) = B k1

k1

und f¨ ur p = 2 : B(a1 , a2 ) = = = =



k1

 P P (k1 ) (k2 ) B (a1 )k1 e , (a2 )k2 e k1 k2   P P (k2 ) (k1 ) (a1 )k1 B e , (a2 )k2 e k2 k1   P P (k1 ) (k2 ) (a1 )k1 (a2 )k2 B(e , e ) k1 k2 P (a1 )k1 (a2 )k2 Bk1 k2 . k1 ,k2

143 Der allgemeine Fall geht analog (genau genommen induktiv), ist aber h¨aßlich hinzuschreiben. ⊓ ⊔ ⊓ ⊔

9.5 Beispiel. Der zum Spatprodukt ε(a, b, c) := (a × b) · c geh¨orige Tensor hat die Komponenten    1 falls ijk ∈ {123, 231, 312}, εijk = −1 falls ijk ∈ {321, 213, 132},   0 falls i = j oder i = k oder j = k,

(11)

wie man leicht mit Hilfe von (9) nachrechnet. Direkt aus der Definition erh¨alt man andererseits     a2 b 3 − a3 b 2 c1     ε(a, b, c) = (a × b) · c =  a3 b1 − a1 b3  ·  c2  a1 b 2 − a2 b 1 c3 = (a2 b3 − a3 b2 )c1 + (a3 b1 − a1 b3 )c2 + (a1 b2 − a2 b1 )c3 = a1 b 2 c 3 + a2 b 3 c 1 + a3 b 1 c 2 − a3 b 2 c 1 − a2 b 1 c 3 − a1 b 3 c 2 .

Wie es sein muß, stimmt das mit der durch Einsetzen von (11) in (10) erhaltenen Formel u ¨berein; fehlende Terme wie a1 b1 c1 haben als Koeffizienten 0. Der Tensor (11) heißt der Levi-Civita-Tensor. (In Analogie zu einer Matrix m¨ ußte man die εijk in einem 3 × 3 × 3W¨ urfel unterbringen, aber dies ist nicht mehr u bersichtlich.) ¨ ¨ Es ist nicht schwer zu zeigen (Ubungsaufgabe; zuerst p = 2 betrachten!), daß eine pLinearform genau dann symmetrisch ist, wenn (f¨ ur beliebige Indices) Bkπ1 ...kπp = Bk1 ...kp

f¨ ur alle π ∈ Sym(p)

gilt; schwieriger, aber auch interessanter und f¨ ur die Anwendungen wichtiger ist eine entsprechende Charakterisierung der alternierenden p-Linearformen. Wie man schon am Beispiel 9.5 sieht (alternierend nach 9.2(iii) ), gibt es einige Permutationen, die den Tensor unver¨andert lassen, aber auch solche, die das Vorzeichen ¨andern. Wir m¨ ussen uns daher die Permutationen etwas genauer ansehen. 9.6 Definition (i) F¨ ur i 6= k bezeichnet (ik) die Transposition von i und k, d.h. die Permutation, die i mit k vertauscht und alle u ¨ brigen Elemente festl¨aßt. (ii) Eine Inversion der Permutation π ∈ Sym(p) ist ein Paar (i, j) ∈ N × N mit 1 ≤ i < j ≤ p und πi > πj; π heißt gerade (ungerade) falls die Zahl der Inversionen von π gerade (ungerade) ist.

144

KAPITEL 9. TENSOREN UND DETERMINANTEN

(iii) F¨ ur Abbildungen π : [p] → [p] setzen wir   falls π gerade Permutation,  1 sgn(π) := −1 falls π ungerade Permutation,   0 falls π keine Permutation.

(12)

sgn(π) heißt das Signum (=Vorzeichen) von π.

9.7 Beispiel. Sei p = 3. F¨ ur i, j, k ∈ [3](= {1, 2, 3}) bezeichnen wir mit πijk die durch πijk (1) := i,

πijk (2) := j,

πijk (3) := k

definierte Abbildung. Wir bestimmen die Inversionen der 6 Permutationen aus Sym(3): sgn(π123 ) = 1 : sgn(π231 ) = 1 : sgn(π312 ) = 1 : sgn(π132 ) = −1 : sgn(π213 ) = −1 : sgn(π321 ) = −1 :

keine Inversion, 2 Inversionen (1,2), (1,3), 2 Inversionen (2,3), (1,3), 1 Inversion (2,3), 1 Inversion (1,2), 3 Inversionen (1,2), (1,3), (2,3).

Andere Abbildungen, etwa π111 , sind nicht bijektiv, also keine Permutationen; ihr Signum ist also Null. Durch Vergleich mit (11) sieht man sgn(πijk ) = εijk f¨ ur alle i, j, k ∈ [3].

(13)

Von den 6 Permutationen ist eine die Identit¨at π123 = 1, drei sind Transpositionen, n¨amlich π132 = (23), π213 = (12), π321 = (13), und die u ¨brigen beiden, π231 (1 → 2 → 3 → 1) und π312 (1 → 3 → 2 → 1), sind zyklische Vertauschungen. Die Identit¨at und die zyklischen Vertauschungen sind (f¨ ur ¨ p = 3 !) gerade Permutationen, die Transpositionen sind ungerade Permutationen. (Ubung: F¨ ur p = 4 sind die 6 m¨oglichen zyklischen Vertauschungen π2341 (1 → 2 → 3 → 4 → 1), π2413 (1 → 2 → 4 → 3 → 1), usw. ungerade!) 9.8 Proposition (i) F¨ ur beliebige Abbildungen σ, π: [p] → [p] gilt sgn(σπ) = sgn(σ) sgn(π).

(14)

(ii) F¨ ur Permutationen π ∈ Sym(p) gilt sgn(π −1 ) = sgn(π).

(15)

145 (iii) Jede Permutation π ∈ Sym(p) l¨aßt sich als Produkt von h¨ochstens p − 1 Transpositionen schreiben. Beweis. (i) Wir zeigen zun¨achst, daß der Ausdruck Y ∆(π) :=

1≤j k

(18)

als Produkt von h¨ochstens k Transpositionen schreiben l¨aßt. Das ist richtig f¨ ur k = 0, da dann π = 1 sein muß, was ein leeres Produkt ist. Angenommen, die Aussage gilt f¨ ur k − 1 statt k. π sei eine Permutation mit (18) und es sei l := πk. Ist l = k, so gilt (18) mit k − 1 statt k, also ist π ein Produkt von ≤ k − 1 ≤ k Transpositionen. Ist l 6= k, so ist auch πl 6= πk = l, also l < k wegen (18). F¨ ur die Permutation π ′ := (kl)π gilt dann π ′ j = (kl)πj = (kl)j = j f¨ ur j > k und π ′ k = (kl)πk = (kl)l = k, also ist π ′ ein Produkt von ≤ k − 1 Transpositionen. Daher ist π = (kl)−1 π ′ = (kl)π ′ ein Produkt von ≤ k Transpsitionen. ⊓ ⊔ ⊓ ⊔ Wir k¨onnen nun die Haupteigenschaften von p-Formen herleiten: 9.9 Satz F¨ ur jede p-Form B u ¨ ber V gilt (i) B(. . . , ak−1 , ak , ak+1 , . . .) = B(. . . , ak−1 , ak + λal , ak+1 , . . .) f¨ ur l 6= k, λ ∈ R.

146

KAPITEL 9. TENSOREN UND DETERMINANTEN

(ii) B(a1 , . . . , ap ) = 0

falls a1 , . . . , ap linear abh¨angig sind.

(iii) B(a1 , . . . , ap ) 6= 0



a1 , . . . , ap linear unabh¨angig.

(iv) B(aπ1 , . . . , aπp ) = sgn(π)B(a1 , . . . , ap )

f¨ ur alle π : [p] → [p].

Umgekehrt ist jede p-Linearform B mit irgendeiner der Eigenschaften (i),(ii),(iii) oder (falls 2 6= 0 in K) auch (iv) alternierend, also eine p-Form. Beweis. (i) Die rechte Seite ist B(. . . , ak−1 , ak , ak+1 , . . .) + λB(. . . , ak−1 , al , ak+1 , . . .), und der zweite Term f¨allt weg, da zwei Argumente gleich sind. P (ii) Ist αk ak = 0 und etwa αj 6= 0, so ist 0 = B(. . . , aj−1 , 0, aj+1 , . . .) X = B(. . . , aj−1 , αk ak , aj+1 , . . .) X = αk B(. . . , aj−1 , ak , aj+1 , . . .).

Da B alternierend ist, sind alle Terme mit k 6= j Null, also ist

0 = αj B(. . . , aj−1 , aj , aj+1 , . . .) = αj B(a1 , . . . , ap ), wegen αj 6= 0 also B(a1 , . . . , ap ) = 0. (iii) folgt durch Widerspruch aus (ii). (iv) Sei zun¨achst π = (kl), k < l. Wir betrachten f¨ ur feste aj (j 6= k, l) die Bilinearform B0 mit B0 (ak , al ) := B(a1 , . . . , ak , . . . , al , . . . , ap ). Da B alternierend ist, ist B0 (a, a) = 0, und f¨ ur a = ak + al erhalten wir 0 = B0 (ak + al , ak + al ) = B0 (ak , ak + al ) + B0 (al , ak + al ) = B0 (ak , al ) + B0 (al , ak ). nach (i). Also ist B(a1 , . . . , ap ) = B0 (ak , al ) = −B0 (al , ak ) = −B(aπ1 , . . . , aπl ). Bei jeder Transposition a¨ndert sich also das Vorzeichen. Ist π ein Produkt von t Transpositionen πj , so ist also B(aπ1 , . . . , aπp ) = (−1)t B(a1 , . . . , ap ); wegen (14) und (16) ist aber auch sgn(π) = sgn(π1 ) . . . sgn(πt ) = (−1)t . Nach der vorigen Proposition gilt (iv) also f¨ ur alle Permutationen. Ist π keine Permutation, so gibt es Indices j 6= k mit πj = πk; wegen aπj = aπk ist dann B(aπ1 , . . . , aπp ) = 0, und wegen sgn(π) = 0 gilt wieder (iv). ¨ Umkehrungen als Ubungsaufgabe. ⊓ ⊔ ⊓ ⊔ V Folgerung Ist p > dim V , so ist p V = 0. Beweis. Dann sind n¨amlich a1 , . . . , ap stets linear abh¨angig, also ist nach Satz 9.9(i) eine p-Form u ⊓ ⊔ ¨berall Null. ⊓ ⊔ F¨ ur n-dimensionale Vektorr¨aume sind also nur die p-Formen mit p ≤ n interessant. Eine ausgezeichnete Rolle spielen dabei die n-Formen:

147 9.10 Satz Es gibt genau eine n-Form B u ¨ ber K n mit B(e(1) , . . . , e(n) ) = 1, n¨amlich die durch X det(a1 , . . . , an ) := sgn(π)(a1 )π1 . . . (an )πn (19) π∈Sym(n)

definierte Determinantenform B = det. Beweis. Wir bestimmen die Koordinaten Bk1 ... kn = B(e(k1 ) , . . . , e(kn ) ) einer n-Form. Sind zwei der Indices gleich, so ist die entsprechende Koordinate Null. Sind alle Indices verschieden, so wird durch πj := kj eine Permutation definiert, und nach Satz 9.9(iii) ist Bk1 ... kn = B(e(π1) , . . . , e(πn) ) = sgn(π)B(e(1) , . . . , e(n) ) = sgn(π). Einsetzen in Satz 9.4 ergibt B(a1 , . . . , an ) =

X

sgn(π)(a1 )π1 . . . (an )πn = det (a1 , . . . , an ).

Daher ist B =det. Es bleibt zu zeigen, daß det eine n-Form ist. Multilinearit¨at ist klar, und die Normierungseigenschaft det(e(1) , . . . , e(n) ) = 1 gilt auch, da f¨ ur aj = e(j) in der Summe (19) nur der Term mit π1 = 1, . . . , πn = n, also π = 1 u ¨brig bleibt. Um zu zeigen, daß det alternierend ist, nehmen wir ak = al , k 6= l an. Zu jeder Permutation π ∈ Sym(n) gibt es dann i, j mit πi = k, πj = l. F¨ ur die Permutation π ′ = (kl)π gilt dann π ′ i = (kl)πi = (kl)k = l, und π ′ j = (kl)πj = (kl)l = k, schließlich π ′ h = (kl)πh = πh f¨ ur h 6= i, j. Wegen ak = al ist nun (a1 )π′ 1 . . . (an )π′ n = (a1 )π1 . . . (an )πn , und wegen sgn(π ′ ) =sgn((kl))sgn(π) = −sgn(π) heben sich die Summanden in (19) paarweise weg. Also ist det(a1 , . . . , an ) = 0 falls ak = al (k 6= l), d.h. det ist alternierend und damit eine n-Form. ⊓ ⊓ ⊔ ⊔

9.11 Bemerkung. Ein Vergleich von Beispiel 9.5 und 9.7 mit (19) ergibt f¨ ur n = 3 die Beziehung det(a, b, c) = (a × b) · c. (20) 9.12 Definition Die Determinante der quadratischen Matrix A ∈ K n×n ist X det A := det(A·1 , . . . , A·n ) = sgn(π)Aπ1,1 · · · Aπn,n .

(21)

π∈Sym(n)

9.13 Beispiele. F¨ ur n = 1 ist detA = A11 , f¨ ur n = 2 ist detA = A11 A22 − A21 A12 , und f¨ ur n = 3 ist detA = A11 A22 A33 + A21 A32 A13 + A31 A12 A23 − A31 A22 A13 − A21 A12 A33 − A11 A23 A32 .

148

KAPITEL 9. TENSOREN UND DETERMINANTEN

Beispielsweise ist

det 

 1 2 3   det  4 5 6  = 7 8 9 =  1  det  3 0

1 2 3 4

det(3) = 3, !

= 1 · 4 − 2 · 3 = −2,

1·5·9+4·8·3+7·2·6−7·5·3−4·2·9−1·8·6 45 + 96 + 84 − 105 − 72 − 48 = 0,  2 0  4 5  = 28 + 0 + 0 − 0 − 42 − 30 = −44. 6 7

F¨ ur d > 3 ist die Formel (21) umst¨andlich, da n! Terme zu berechnen sind. Mit Hilfe der Determinanten lassen sich nun auch die u ¨brigen p-Formen bestimmen. Wir brauchen dazu 9.14 Definition I sei eine Teilmenge von [n] mit |I| = p. Dann bezeichnet AI · die aus der Matrix A ∈ K n×p durch Streichen der Zeilen mit Index i 6∈ I entstehende p × p- Matrix. Die (j, k)-Komponente von AI · ist also das Element Aij ,k , wo i1 < i2 < . . . < ip die Elemente von I in aufsteigender Reihenfolge sind.   1 2 !  3 4  3 4   . Ist etwa A =   und I = {2, 4}, so ist AI · =  5 6  7 8 7 8 9.15 Proposition (i) F¨ ur jede lineare Abbildung L : V → K p ist die durch B(a1 , . . . , ap ) := det(La1 , . . . , Lap ) (ak ∈ V )

(22)

definierte Abbildung B : V ×p → K eine p-Form u ¨ ber V definiert. (ii) F¨ ur Teilmengen I von [n] mit |I| = p ist die durch dxI (A) := det(AI · )

(23)

definierte Abbildung dxI : K n×p → K eine p-Form u ¨ ber K n definiert. (Die Bezeichnung dx kann erst sp¨ater bei der Behandlung von Kurven-, Fl¨achen- und Volumenintegralen motiviert werden.) Beweis.

149 (i) Die Linearit¨at in jedem Argument ergibt sich aus den entsprechenden Eigenschaften von det und L. Ist ak = al (k 6= l) so ist auch Lak = Lal , also verschwindet die Determinante. Daher ist B alternierend. (ii) F¨ ur V = K n ist die Abbildung L mit 

 ai1  .  La :=  ..  aip

linear. F¨ ur die p-Form (22) ergibt sich f¨ ur A ∈ K n×p

B(A) = B(A·1 , . . . , A·p ) = det(LA·1 , . . . , LA·p )   Ai1 1 . . . Ai1 p  . ..  = det  .. .  = det(AI· ); Aip 1 . . . Aip p

also ist durch (23) tats¨achlich eine p-Form definiert. ⊓ ⊔

⊓ ⊔ F¨ ur p = n ist I = [n] die einzige Teilmenge [n] mit |I| = n, und man braucht keine Zeile zu streichen: dx[n] (A) = detA. F¨ ur 0 < p < n erh¨alt man eine p-Form dxI f¨ ur jede M¨oglichkeit, aus A eine p × p-Matrix auszuw¨ahlen. 9.16 Satz Jede p-Form B u ¨ ber K n l¨aßt sich eindeutig als Linearkombination X B= bI dxI (bI ∈ R)

(24)

|I|=p

schreiben, d.h. die Formen dxI (I ⊆ [n], |I| = p) bilden eine Basis von zienten bI in (24) ergeben sich aus

Vp

bI := B(e(i1 ) , . . . , e(ip ) ) f¨ ur I = {i1 , . . . , ip }, i1 < . . . < ip .

(K n ). Die Koeffi(25)

Beweis. Wir bestimmen die Koordinaten Bk1 ...kp = B(e(k1 ) , . . . , e(kp ) ). Sind die kj nicht alle verschieden, so sind zwei Argumente von B gleich und die Koordinate verschwindet. Sind die kj alle verschieden, so ordnen wir I := {k1 , . . . , kp } der Gr¨oße nach wie in (25) an, und erhalten eine Permutation π ∈ Sym(p) mit kj = iπj (j = 1, . . . , p). Daher ist Bk1 ... kp = B(e(k1 ) , . . . , e(kp ) ) = B(e(iπ1 ) , . . . , e(iπp ) ) = sgn(π) B(e(i1 ) , . . . , e(ip ) ) = sgn(π)bI .

150

KAPITEL 9. TENSOREN UND DETERMINANTEN

Einsetzen in Satz 9.4 ergibt

=

X I

B und

X

bI

X

sgn(π)bI (A·1 )iπ1 · · · (A·p )iπp I,π ! X X X bI det(AI· ) = bI dxI (A). sgn(π)Aiπ1 1 · · · Aiπp p =

B(A) = B(A·1 , . . . , A·p ) =

π

I

I

bI dxI bilden also gleiche Matrizen auf dieselben Elemente ab und sind daher

I

gleich. Also gilt (24). Gilt umgekehrt (24), so erhalten wir durch Anwenden auf (e(j1 ) , . . . , e(jp ) ) mit j1 < . . . < jp die Werte X B(e(j1 ) , . . . , e(jp ) ) = bI dxI (e(j1 ) , . . . , e(jp ) ). (26) |I|=p

Nun ist dxI (e(j1 ) , . . . , e(jp ) ) =

X

sgn(π)δj1 ,iπ1 . . . δjp ,iπp .

(27)

π

Da auch i1 < . . . < ip gilt, ist das Produkt nur dann 6= 0,wenn π = 1 und jl = il (l = 1, . . . , p), also I = {j1 , . . . , jp } ist; in diesem Fall hat (27) den Wert 1. Daher reduziert sich die Summe (26) auf bI , d.h. bI ist eindeutig bestimmt. ⊓ ⊓ ⊔ ⊔ Als Anwendung beweisen wir 9.17 Proposition F¨ ur A, B ∈ K n×p (p ≤ n) gilt die Produktformel X det(AT B) = det(AI · ) det(BI · )

(28)

|I|=p

Beweis. Wir betrachten die durch C(a1 , . . . , ap ) := det(AT a1 , . . . , AT ap )

(29)

definierte P Abbildung C; nach Proposition 9.15(i) ist C eine p-Form, und nach Satz 9.16 ist C = cI dxI mit cI : = C(e(i1 ) , . . . , e(ip ) ) = det(AT e(i1 ) , . . . , AT e(ip ) ) = det(Ai1 · , . . . , Aip · ) = det(AI · ).

Also ist X X (29) (23) det(AT B) = C(B) = cI dxI (B) = = det(AI · ) det(BI · ). ⊓ ⊔

⊓ ⊔

151 9.18 Satz (i) Es gelten die Formeln det I = 1, det(AT ) = det A det(AB) = det(A) det(B)

n

f¨ ur A ∈ K , f¨ ur A, B ∈ K n×n .

(30) (31) (32)

(ii) A ∈ K n×n ist genau dann invertierbar, wenn det A 6= 0. In diesem Fall gilt det(A−1 ) = (det A)−1 .

(33)

Beweis. (i) (30) gilt, da in der Summe (21) nur der Term mit π = 1 beitr¨agt. Nach (21) f¨ ur AT statt A ist X det(AT ) = sgn(π)A1,π1 . . . An,πn . π∈Sym(n)

Sortieren wir die Faktoren so um, daß sie nach dem zweiten Index geordnet sind, so erhalten wir A1,π1 · . . . · An,πn = Aπ−1 1,1 · . . . · Aπ−1 n,n . Wegen sgn(π) = sgn(π −1 ) wird die Summe zu X π

sgn(π −1 )Aπ−1 1,1 · . . . · Aπ−1 n,n =

X σ

sgn(σ)Aσ1,1 · . . . · Aσn,n = det A;

also gilt (31). F¨ ur p = n hat die Summe in (28) nur einen einzigen Term (mit I = [n], keine Zeile gestrichen). Also ist det(AT B) = det(A)det(B)

f¨ ur A, B ∈ K n×n .

Ersetzt man A durch AT und benutzt (AT )T = A und (31), so folgt (32). (ii) Ist A invertierbar, so ist 1 = det I = det(AA−1 ) = det(A)det(A−1 ); insbesondere ist dann detA 6= 0, und Aufl¨osen nach det(A−1 ) ergibt (33). Ist A nicht invertierbar, so sind die Spalten von A linear abh¨angig, und nach Satz 9.9(i) ist dann detA = 0. ⊓ ⊔ ⊓ ⊔ Folgerung F¨ ur A ∈ K n×p gilt det(AT A) > 0 ⇐⇒ rk(A) = p.

(34)

Beweis. Ist rk(A) < p, so sind die Spalten von A linear abh¨angig, also gibt es einen Vektor x 6= 0 mit Ax = 0. Da dann auch AT Ax = 0 ist, ist A singul¨ar, also detA = 0. Ist rk(A) = p, so hat A p linear unabh¨angige Zeilen, etwa die mit Index ∈ I(|I| = p). Die p × p-Matrix

152

KAPITEL 9. TENSOREN UND DETERMINANTEN

AI · hat dann ebenfalls Rang p, ist also regul¨ar. Daher ist detAI · 6= 0. Aus Proposition 9.17 folgt nun X det(AT A) = (detAI · )2 > 0, (35) |I|=p

⊓ ⊔

da alle Terme nichtnegativ sind und mindestens einer positiv ist. ⊓ ⊔

Wir verallgemeinern nun die Regel (20) f¨ ur 3 × 3−Determinanten. Dazu schreiben wir (20) in der Form   A11 A12 A13   det  A21 A22 A23  = (A·1 × A·2 ) · A·3 A31 A32 A33 = (A21 A32 − A31 A22 )A13 + (A31 A12 − A11 A32 )A23 + (A11 A22 − A21 A12 )A33

= det

A21 A22 A31 A32

!

A13 − det

A11 A12 A31 A32

!

A23 + det

A11 A12 A21 A22

!

A33 ;

Wir sagen, wir haben die Deteminante nach der dritten Spalte entwickelt. Allgemeiner gilt nun: 9.19 Satz (Entwicklungssatz von Laplace) . Sei A ∈ K n×n , und Aik bezeichne die Matrix, die aus A durch Streichen der i-ten Zeile und der k-ten Spalte entsteht. (i) Entwicklung nach der i-ten Zeile: F¨ ur jedes i ∈ [n] gilt det(A) =

n X

(−1)i+k Aik det(Aik ).

(36)

k=1

(ii) Entwicklung nach der k-ten Spalte: F¨ ur jedes k ∈ [n] gilt det(A) =

n X

(−1)i+k Aik det(Aik ).

(37)

i=1

Man beachte den Faktor (−1)i+k , der daf¨ ur sorgt, daß die Vorzeichen in der Summe alternieren (=abwechseln). Die Vorzeichen zu den Aik bilden ein Schachbrett-artiges Muster; f¨ ur n = 4 etwa   + − + −  − + − +    .   + − + −  − + − +

Beweis.

153 (i) Wir zeigen, daß die rechte Seite von (36) eine n-Form ist. Betrachten wir nur die jte Spalte als variabel, so ist in der Summe im Term mit k = j der Ausdruck det(Aik ) konstant; in den u ¨brigen Termen ist Aik konstant und det(Aik ) linear. Also ist die Summe linear in A·j . Sind zwei Spalten gleich, A·j = A·l (j 6= l), so verschwindet det(Aik ) f¨ ur k 6= j, l, da immer noch zwei Spalten gleich sind. F¨ ur k = j und k = l bekommt man zwei Determinanten, die durch |k − l| − 1 Transpositionen benachbarter Spalten ineinander u uhrt werden k¨onnen; also ist det(Ail ) = (−1)|k−l|−1 det(Aik ) = (−1)k+l+1 det(Aik ) und ¨berf¨ die beiden Summanden heben sich wegen der Vorzeichenregelung in (36) weg. Also ist die rechte Seite von (36) eine alternierende Multilinearform mit n Argumentspalten, also eine n-Form. Setzt man die Einheitsmatrix A = I ein, so verschwinden alle Terme der Summe mit k 6= i (eine Spalte ist Null), und f¨ ur k = i bleibt (−1)i+i Aij det I = 1 · 1 · 1 = 1. Also hat die n-Form f¨ ur A = I den Wert 1, und nach Satz 9.10 muß (36) daher die Determinante sein. (ii) Wenden wir (i) auf B := AT an, so finden wir det A

(31)

=

(31)

=

n

n

k=1

k=1

(36) X (36) X det B = (−1)i+k Bik det(B ik ) = (−1)i+k Bik det(B ik )T

n X (−1)i+k Aki det(Aki ), k=1

und nach Vertauschen von i und k folgt (37). ⊓ ⊔ ⊓ ⊔

9.20 Beispiel. Man entwickelt nach Zeilen oder Spalten mit vielen Nullen, damit m¨oglichst viele Glieder Null werden, und schreibt A11 . . . A1n .. .. . . . . . statt det(A), A ... A n1

nn

¨ um die Ubersicht zu behalten: 

 1 2 3   det  4 0 6  7 8 9 

 1 0 0   det  4 5 6  7 8 9

2.Sp.

=

1.Z.

=

1 3 −2 7 9 5 6 1 8 9

1 3 + 0 − 8 4 6

= −2(−12) − 8(−6) = 24 + 48

− 0 + 0 = 1(−3) = −3,

= 72,

154

KAPITEL 9. TENSOREN UND DETERMINANTEN 

−1 1  0 0  det   0 1 1 −1 −1 = − 0 − 1 1

 −1 1 0 −1 1 1 −1 −1 1   1.Sp = (−1) − 0 + 0 − 1 0 1  1 0 −1  0 1 −1 1 1 1 0 1 1 ! −1 1 1 −1 1 −1 1 + (−1) − 1 − 0 + 1 −1 1 1 0 1 0 1

= (−2) + (−1) − (−1) − 0 = −2. ⊓ ⊔

1 1 1 !

Folgerung (i) F¨ ur eine rechte obere Dreiecksmatrix R ∈ K n×n (die durch definiert ist) gilt  x x n  Y  0 x det R = Rii .   0 0 i=1 0 0

Rik = 0 f¨ ur i > k

(ii) F¨ ur eine linke untere Dreiecksmatrix L ∈ K n×n (die durch definiert ist) gilt  x 0 n  Y  x x det L = Lii .   x x i=1 x x

Lik = 0 f¨ ur i < k

(iii) F¨ ur eine Diagonalmatrix D ∈ K n×n (die durch Dik = 0 f¨ ur  x n  Y  0 det D = Dii .   0 i=1 0

x x x 0

0 0 x x

x x x x

0 0 0 x

    

    

i 6= k definiert ist) gilt  0 0 0 x 0 0    0 x 0  0 0 x

¨ Beweis. Induktion und Entwicklung nach der ersten Spalte bzw. Zeile (Ubungsaufgabe). ⊓ ⊔ ⊓ ⊔ F¨ ur die Berechnung beliebiger Determinanten ben¨otigen wir noch 9.21 Proposition (Umformungsregeln fu ¨ r Determinanten) Sei A ∈ K n×n . (i) Ersetzt man eine Zeile (oder Spalte) von A durch ihr λ-faches, so multipliziert sich det A mit λ.

155 (ii) Addiert man zu einer Zeile (oder Spalte) von A das λ-fache einer anderen Zeile (oder Spalte), so ¨andert sich det A nicht. Beweis. (i) folgt f¨ ur Spalten aus der Multilinearit¨at, und dann f¨ ur Zeilen wegen detAT = detA. (ii) folgt f¨ ur Spalten aus Satz 9.9(i), und dann f¨ ur Zeilen wegen detAT = detA. ⊓ ⊔ ⊓ ⊔

9.22 Beispiel. Man wendet Umformungen an, um zus¨atzliche Nullen zu erzeugen, damit man die Determinante leichter entwickeln kann. Auf diese Weise lassen sich auch gr¨oßere Determinanten mit vertretbarem Aufwand berechnen.   1 0 3 1 0 1 1 2 3   (a) (b) det  4 5 6  = 4 −3 6 = (−3)3 4 −1 2 7 −6 9 7 −2 3 7 8 9 0 0 1 2 −1 (c) (d) = −9 2 −1 2 = (−9)(+1) = 9 · 0 = 0. 4 −2 4 −2 3

In (a) wurde A·2 durch A·2 − 2A·1 ersetzt, in (b) wurden in der zweiten und dritten Spalte gemeinsame Faktoren gek¨ urzt, in (c) wurde A·1 durch A·1 − A·3 ersetzt, in (d) wurde nach der ersten Zeile entwickelt. Wir wollen jetzt geschlossene Formeln f¨ ur die inverse Matrix und die L¨osung regul¨arer linearer Gleichungssysteme herleiten. 9.23 Definition Die Adjunkte von A ∈ K n×n ist die Matrix Aadj ∈ K n×n mit Koeffizienten (Aadj )ik := (−1)i+k det Aki . (38) Hilfssatz F¨ ur A ∈ K n×n gilt

AAadj = (det A)I.

(39)

Beweis. Wir berechnen die (j, i)−te Komponente von AAadj : Es ist (AAadj )ji =

n X k=1

n

(38) X (36) Ajk (Aadj )ki = Ajk (−1)k+i det Aik = det A(i|j); k=1

dabei entsteht die Matrix A(i|j) aus A, indem man die i−te Zeile Ai· von A durch die j−te Zeile Aj · ersetzt. F¨ ur i 6= j entstehen also zwei gleiche Zeilen, und die Determinante verschwindet; f¨ ur i = j passiert gar nichts, und wir erhalten detA. Daraus folgt (39). ⊓ ⊔ ⊔ ⊓

156

KAPITEL 9. TENSOREN UND DETERMINANTEN

9.24 Satz A ∈ K n×n sei regul¨ar. Dann ist A−1 =

1 Aadj , det A

(40)

und die L¨osung des linearen Gleichungssystems (b ∈ K n )

Ax = b

(41)

hat die Komponenten

det Ak (k = 1, . . . , n), (42) det A wobei Ak aus A entsteht, indem man die k-te Spalte A·k durch die rechte Seite b ersetzt. (42) heißt die Cramer’sche Regel. xk =

Beweis. Nach Satz 9.18(ii) ist detA 6= 0, und Division durch detA ergibt   1 adj = I, A A det A also ist (40) die Inverse von A. Die L¨osung von (41) ist nun x = A−1 b =

1 Aadj b. det A

(43)

Die Komponenten von Aadj b sind aber adj

(A

n n X (38) X (37) adj b)k = (A )ki bi = (−1)k+i bi det(Aik ) = det(Ak ); i=1

i=1

also ist xk =

(Aadj b)k det Ak = . det A det A

⊓ ⊔ ⊓ ⊔

9.25 Beispiel. F¨ ur n = 2 ist !adj ! a b d −b = , also c d −c a ! !−1 d −b a b 1 = ad − bc −c a c d Die L¨osung von a b c d

!

x y

!

=

u v

!

falls ad 6= bc.

157 ist im Fall ad 6= bc durch ! x = y =

a b c d

!−1

u v

!

du − bv av − cu

1 ad − bc

1 = ad − bc !

d −b −c a

!

u v

!

gegeben, also du − bv = x= ad − bc

u b v d , a b c d

av − cu = y= ad − bc

a u c v . a b c d

F¨ ur n > 3 (und eigentlich schon f¨ ur n = 3) ist die Cramersche Regel zur praktischen Rechnung unbrauchbar, da die Determinanten m¨ uhsam zu berechnen sind. 9.26 Satz F¨ ur K = R oder C gilt: (i) det : Kn×n → K ist eine stetig differenzierbare Abbildung mit partiellen Ableitungen ∂ det A = (Aadj )ki . ∂Aik

(44)

(ii) Ist B : [α, ω] → Kn×n eine stetig differenzierbare matrixwertige Abbildung mit det B(t) 6= 0 f¨ ur t ∈ [α, ω], so ist d ˙ det B(t) = det B(t) · tr (B(t)−1 B(t)). dt

(45)

Beweis. (i) Aus (36) folgt ∂ det A = (−1)i+k det Aik , ∂Aik da alle Koeffizienten in (36) außer Aik selbst bei Variation von Aik Konstanten sind. Wegen der Definition (38) folgt (44). (ii) Nach der Kettenregel ist d det B(t) dt

= (44)

=

   X ∂ ∂ Bik (t) det B · ∂Bik ∂t i,k X (B adj )ki B˙ ik i,k

=

X k

˙ kk = tr (B adj B) ˙ (B adj B)

158

KAPITEL 9. TENSOREN UND DETERMINANTEN

Aus (40) folgt aber B adj = (det B)B −1 ; wegen der Linearit¨at der Spur ist also ˙ = (det B) tr (B −1 B). ˙ tr (B adj B) Also gilt (45). ⊓ ⊔ ⊓ ⊔

9.27 Bemerkung. Die Formel (45) ist in der allgemeinen Relativit¨atstheorie von Bedeutung (Herleitung der Feldgleichungen aus dem Prinzip der kleinsten Wirkung). Bisher haben wir uns fast nur mit p-Linearformen u ¨ber V = K n befaßt. Aber alles l¨aßt sich leicht auf beliebige endlich-dimensionale Vektorr¨aume V u ¨bertragen. Die Koordinaten h¨angen jetzt von der gew¨ahlten Basis ab, aber die Determinante einer linearen Selbstabbildung erweist sich als unabh¨angig von der Basis. 9.28 Definition Die Koordinaten einer p-Linearform B u ¨ ber dem n-dimensionalen Raum V bez¨ uglich einer Basis b1 , ..., bn von V sind definiert durch Bk1 ,...,kp := B(bk1 , ..., bkp ) f¨ ur k1 , ..., kp ∈ [n].

(46)

Ist φ das zu dieser Basis geh¨orige Koordinatensystem mit φ(bk ) = e(k) , so nennt man die (durch [n]p indizierte) Familie der Koordinaten (46) den im Koordinatensystem φ zu B geh¨origen Tensor. 9.29 Satz (vgl. Satz 9.4) (i) Es gibt genau eine p-Linearform B u ¨ ber V mit vorgegebenen Koordinaten (46) im Koordinatensystem φ, n¨amlich die p-Linearform B mit B(a1 , ..., ap ) =

n X

Bk1 ...kp (φa1 )k1 ...(φap )kp .

(47)

k1 ,...,kp =1

(ii) In einem beliebigen anderen Koordinatensystem φ˜ hat B die Koordinaten ˜l1 ...lp = B

n X

Bk1 ...kp Sk1 l1 ...Skp lp ,

(48)

k1 ,...,kp =1

wobei S := φφ˜−1 die Transformationsmatrix zwischen den Koordinatensystemen ist. Beweis.

159 (i) Ist B irgendeine p-Linearform mit Koordinaten (46), so hat die durch B ∗ (c1 , ..., cp ) := B(φ−1 c1 , ..., φ−1 cp )

(49)

definierte p-Linearform B ∗ u ¨ber K n die (Standard-)Koordinaten Bk∗1 ...kp = B ∗ (e(k1 ) , ..., e(kp ) ) = B(φ−1 e(k1 ) , ..., φ−1 e(kp ) ) = B(bk1 , ...bkp ) = Bk1 ...kp , ist also nach Satz 9.4 eindeutig bestimmt, und aus (49) ergibt sich f¨ ur ci = φai B(a1 , ..., ap ) = B ∗ (φc1 , ..., φcp ), nach Satz 9.4 (10) also die Formel (47). Umgekehrt ist (47) Pwegen der Linearit¨at von φ eine p-Linearform, und wegen φ(bk ) = e(k) ist B(bl1 , ..., blp ) = Bk1 ...kp δl1 k1 ...δlp kp = Bl1 ...lp , also gilt (46).

(ii) Zu φ˜ geh¨ort die Basis ˜bk = φ˜−1 e(k) Also ist ˜l1 ...lp B

(k = 1, ..., n).

= B(˜bl1 , ..., ˜blp ) (45) X = Bk1 ...kp (φ˜bl1 )k1 · · · (φ˜blp )kp X = Bk1 ...kp (φφ˜−1 e(l1 ) )k1 · · · (φφ˜−1 e(lp ) )kp X = Bk1 ...kp (Se(l1 ) )kp ,

und wegen (Se(l) )k = Skl folgt (48).

⊓ ⊔

⊓ ⊔

9.30 Bemerkung. In der physikalischen Tradition geht man bei der Definition von Tensoren von dem Transformationsgesetz bei Wechsel der Koordinaten aus. Das Gesetz (48) entspricht einem p-fach kovarianten Tensor. In der mathematischen Tradition steht die koordinatenabh¨angige Definition durch p-Linearformen im Vordergrund. Wir betrachten nun den Sonderfall p = 1. 9.31 Definition (i) Eine lineare Abbildung B : V → K heißt Linearform (= 1-Linearform) (oder lineares Funktional, wenn V ein Funktionenraum ist). Der Vektorraum aller Linearformen u ¨ ber V heißt der Dualraum von V , und wird mit V ∗ bezeichnet. (ii) Ist V normiert, so fordert man zus¨atzlich die Beschr¨anktheit der Linearformen kBk := sup kBxk < ∞ f¨ ur B ∈ V ∗ . kxk≤1

Der Dualraum ist dann also wieder ein normierter Raum. (F¨ ur endlich-dimensionale R¨aume ist das wegen Satz 7.7 automatisch der Fall.)

160

KAPITEL 9. TENSOREN UND DETERMINANTEN

9.32 Satz Es gibt genau eine Linearform B ∈ V ∗ mit vorgegebenen Koordinaten Bk = B(bk ) bez¨ uglich einer Basis b1 , ..., bn von V , n¨amlich die Linearform B mit B(a) :=

n X

Bk (φa)k ,

(50)

k=1

wo φ das zur Basis geh¨orige Koordinatensystem ist. In einem beliebigen Koordinatensystem φ˜ hat B die Koordinaten ˜k = B

n X

Bk Skl mit S = φφ˜−1 .

k=1

Beweis. Dies ist der Fall p = 1 von Satz 9.29. ⊓ ⊔

⊓ ⊔

9.33 Satz Die eindeutig bestimmten Linearformen b∗1 , ..., b∗n ∈ V ∗ mit Koordinaten b∗i (bk ) := δik bilden eine Basis von V ∗ , die zu b1 , ..., bn duale Basis, und f¨ ur beliebige B ∈ V ∗ gilt B=

n X

Bk bk mit Bk = B(bk ).

(51)

k=1

Insbesondere gilt dim V ∗ = dim V falls dim V < ∞.

(52)

Beweis. Die durch b∗i (a) := (φa)i definierten Linearformen erf¨ ullen b∗i (bk ) = (φbk )i = (e(k) )i = δik , und nach dem vorigen Satz ∗ sind sie eindeutig bestimmt. P ∗ Aus der Darstellung (50) folgt nun (51), also erzeugen die bi den Dualraum. Ist αi bi = 0, so folgt X X 0= αi b∗i (bk ) = αi δik = αk ,

also verschwinden alle αi . Daher sind die b∗i linear unabh¨angig. Sie bilden also eine Basis von B ∗ . Daraus folgt auch (52). ⊓ ⊓ ⊔ ⊔

9.34 Beispiel. Zur Standardbasis e(1) , ..., e(k) von K n geh¨ort das Koordinatensystem φ = I. Also ist b∗i (a) = (φa)i = ai .

161 Daher bilden die Linearformen dx1 , ..., dxn ∈ V ∗ mit dxi (a) := ai die duale Basis zur Standardbasis e(1) , ..., e(n) von K n . Die Bezeichnung ergibt sich aus ¨ der Ubereinstimmung von dxi mit der in Proposition 9.15(ii) definierten Abbildung dx{i} ¨ (Ubungsaufgabe). Die Darstellung (50) wird jetzt zu B(a) =

n X

Bk ak = Ba mit der 1×n - Matrix B = (B1 , ..., Bn ),

k=1

also ist der Dualraum von K n identisch mit dem Raum K ×n der n-dimensionalen Zeilenvektoren. Wir betrachten nun den Spezialfall p = n. 9.35 Satz Sei dim V < ∞. F¨ ur jede lineare Selbstabbildung L : V → V ist die Determinante det(φLφ−1 ) der zu L im Koordinatensystem φ : V → K n geh¨origen Matrix φLφ−1 unabh¨angig von φ. Man nennt det L := det(φLφ−1 ) (53) die Determinante der linearen Selbstabbildung L. Beweis. Ist φ˜ : V → K n ein beliebiges Koordinatensystem und S = φφ˜−1 die zugeh¨orige ˜ also Transformationsmatrix, so ist φ = S φ, ˜ ˜ −1 = S φL ˜ φ˜−1 S −1 = S(φL ˜ φ˜−1 )S −1 , φLφ−1 = (S φ)L(S φ) nach Satz 9.18 also ˜ φ˜−1 ) · (det S]−1 = det φL ˜ φ˜−1 . ⊓ det(φLφ−1 ) = det S · det(φL ⊔ ⊓ ⊔

9.36 Bemerkung. Man kann nicht winfach det(φLφ−1 ) = det φ·det L·(det φ)−1 schließen, da die Determinante zun¨achst nur f¨ ur quadratische Matrizen, d.h. lineare Abbildungen von K n nach K n definiert ist, und auch (53) nur f¨ ur lineare Selbstabbildungen Sinn macht. det φ ist also sinnlos. 9.37 Satz Sei dim V < ∞. Eine lineare Selbstabbildung L : V → V ist genau dann bijektiv, wenn det L 6= 0. ¨ Beweis. als Ubungsaufgabe ⊓ ⊔

⊓ ⊔

Schließlich zeigen wir noch, wie man aus Linearformen (alternierende) p-Formen mit h¨oherem p gewinnen kann:

162

KAPITEL 9. TENSOREN UND DETERMINANTEN

9.38 Proposition Sind ψ1 , ..., ψp Linearformen u ¨ ber V , so ist das durch 

 ψ1 (a1 ) · · · ψ1 (ap )   .. .. (ψ1 ∧ · · · ∧ ψp )(a1 , ..., ap ) := det   . . ψp (a1 ) · · · ψp (ap )

(54)

definierte ¨ außere Produkt (oder Dachprodukt) von φ1 , ..., φp eine p-Form. Beweis. Wende Proposition 9.15(i) auf die durch 

 ψ1 (a1 )   .. La :=   . ψp (ap )

⊓ ⊔

definierte lineare Abbildung an. ⊓ ⊔

9.39 Beispiel. F¨ ur I = {i1 , ..., ip } mit i1 < · · · < ip ist wegen dxi (a) = ai : 

 (ai1 )1 · · · (ai1 )p  . ..  (dxi1 ∧ · · · ∧ dxip )(a1 , ..., ap ) = det  .. .  . (aip )1 · · · (aip )p

Mit A = (a1 , ..., ap ) ∈ K n×p l¨aßt sich siese Determinante schreiben als det AI · = dxI (a1 , ..., ap ).

Die p-Formen dxi1 ∧ · · · ∧ dxip und dxI haben also dieselben Bilder und stimmen daher u ¨berein. Also ist dxI = dxi1 ∧ · · · ∧ dxip f¨ ur I = {i1 , ..., ip }, i1 < · · · < ip .

(55)

9.40 Bemerkung. Es gilt: dxi ∧ dxi = 0, dxi ∧ dxj = −dxj ∧ dxi ;

(56) (57)

insbesondere kommt es beim Dachprodukt auf die Reihenfolge der Faktoren an! Man sagt, das Dachprodukt ist antikommutativ.

Kapitel 10 Grenzwerte Grenzwerte beschreiben das Verhalten im Unendlichen oder am Rande von Defini-tionsbereichen. Wir behandeln Konvergenzkriterien und Methoden zur Berechnung von Grenzwerten. 10.1 Definition (i) a ∈ V heißt Grenzwert oder Limes der Folge x≥k aus V , falls zu jedem ε > 0 eine Zahl N ≥ k existiert mit sup kxl − ak ≤ ε. (1) l>N

Man schreibt dann lim xl = a.

l→∞

(2)

Die Folge heißt konvergent, falls ein Grenzwert existiert, und divergent sonst. Folge, konvergent (divergent) (ii) a ∈ W heißt Grenzwert oder Limes der Funktion f ∈ F(V, W ) f¨ ur x → x0 , falls f¨ ur alle ε > 0 ein δ > 0 existiert, so daß die Menge Dδ := {x ∈ Def f k0 < kx − x0 k ≤ δ} nicht leer ist und kf (x) − ak ≤ ε f¨ ur alle x ∈ Dδ Man schreibt dann lim f (x) = a.

x→x0

(3)

Statt (1) sagt man auch kxl − ak ≤ ǫ

f¨ ur fast alle l

(4)

(d.h. f¨ ur alle mit Ausnahme von endlich vielen Indices). Statt (2) und (3) schreibt man auch xl −→ a f¨ ur l → ∞, (5) f (x) −→ a

163

f¨ ur x → x 0 .

(6)

164

KAPITEL 10. GRENZWERTE

(iii) a ∈ W heißt einseitiger Grenzwert von f ∈ F (R, W ) f¨ ur x → x0 + 0 (bzw. x → x0 − 0), falls Def(f ) ein nichtleeres Intervall ]x0 , x1 [ (bzw. ]x1 , x0 [) enth¨alt, so daß a Grenzwert der auf dieses Intervall eingeschr¨ankten Funktion ist. Man schreibt dann lim f (x) = a (bzw. lim f (x) = a) x→x0 +0

x→x0 −0

und f¨ ur x0 = 0 lim f (x) = a

x→+0

(bzw. lim f (x) = a). x→−0

Die n¨achsten drei S¨atze werden f¨ ur den Limes von Folgen formuliert, gelten aber entsprechend auch f¨ ur den Limes von Funktionswerten. 10.2 Satz (i) Eine Folge hat h¨ochstens einen Grenzwert. (ii) Ist f ∈ F(V, W ) stetig in Ω und ist x≥k eine konvergente Folge aus Ω mit Grenzwert x∗ ∈ Ω, so gilt lim f (xl ) = f (x∗ ). (7) l→∞

Beweis. (i) Sind a und b Grenzwerte, so gibt es zu jedem ε > 0 einen Index l mit kxl − ak ≤ ε und kxl − bk ≤ ε, also ist ka − bk ≤ 2ε. Da ε > 0 beliebig war, folgt a = b. (ii) Zu jedem δ > 0 gibt es ein ε > 0 mit kf (x) − f (x∗ )k ≤ δ f¨ ur x ∈ B[x∗ ; ε].

(8)

Zu diesem ε gibt es ein N ≥ k mit (1) f¨ ur a = x∗ ; also ist xl ∈ B[x∗ ; ε] f¨ ur l > N , wegen ∗ (8) also sup kf (xl ) − f (x )k ≤ δ. Nach Definition folgt (7). ⊓ ⊔ l>N

⊓ ⊔

10.3 Satz (i) Aus lim xl = x∗ ∈ V, lim yl = y ∗ ∈ W

l→∞

l→∞

folgt f¨ ur die Folge (xl , yl )(l = k, k + 1, . . .) in V × W die Beziehung lim(xl , yl ) = (x∗ , y ∗ ). (ii) Die Folge xl (l = k, k + 1, . . .) aus Kn konvergiert genau dann gegen x∗ , wenn f¨ ur j = 1, . . . , n die Komponentenfolgen (xl )j (l = k, k + 1, . . .) gegen x∗j konvergieren.

165 Beweis. Aus (1) und der Definition der ∞-Norm. ⊓ ⊔

⊓ ⊔

10.4 Satz Sei lim xl = x∗ ∈ V, lim yl = x∗ ∈ V und lim αl = α∗ ∈ K.

Dann gilt

l→∞

l→∞

l→∞

lim (xl ± yl ) = x∗ ± y ∗ ,

(9)

l→∞

lim (αl xl ) = α∗ x∗ ,

(10)

lim (xl /αl ) = x∗ /α∗ .

(11)

l→∞

und f¨ ur α∗ 6= 0 auch

l→∞

Gilt außerdem xl ≤ yl f¨ ur alle l ≥ k, so ist lim xl ≤ lim yl .

l→∞

(12)

l→∞

¨ (Die entsprechende Aussage f¨ ur < ist falsch: Ubungsaufgabe.) Beweis. (9),(10),(11) folgen, da die Abbildungen (x, y) → x ± y, (x, α) → αx und f¨ ur α 6= 0 auch (x, α) → α/x stetig sind. Ist xl ≤ yl f¨ ur alle l ≥ k, so ist wegen der Stetigkeit von min auch lim xl = lim min(xl , yl ) = min(x∗ , y ∗ ) ≤ y ∗ = lim yl , und (12) folgt. ⊓ ⊔ l→∞ l→∞

l→∞

⊓ ⊔

10.5 Definition Eine Folge x≥k reeller Zahlen heißt monoton wachsend (fallend), falls xl+1 ≥ xl (bzw.xl+1 ≤ xl ) f¨ ur alle l ≥ k. Offenbar gilt dann auch (Induktion) xl ≥ xm (bzw. xl ≤ xm ) f¨ ur l ≥ m ≥ k. 10.6 Satz (i) Jede monoton wachsende und nach oben beschr¨ankte reelle Folge x≥k ist konvergent, und es gilt lim xl = sup xl . (13) l→∞

l≥k

(ii) Jede monoton fallende und nach unten beschr¨ankte reelle Folge x≥k ist konvergent, und es gilt lim xl = inf xl . (14) l→∞

l≥k

Beweis. (i) Sei a := sup{xl | l = k, k + 1, ...}. Dann ist xl ≤ a f¨ ur alle l ≥ k. F¨ ur ǫ > 0 ist a − ǫ keine obere Schranke, also gibt es ein N ≥ k mit xN > a − ǫ. F¨ ur l ≥ N ist dann xl ≥ xN > a − ǫ, also −ǫ ≤ xl − a ≤ 0. Daher ist supl>N |xl − a| ≤ ǫ. Da ǫ > 0 beliebig war, folgt (13).

166

KAPITEL 10. GRENZWERTE

(ii) analog. ⊓ ⊔ ⊓ ⊔

10.7 Satz x≥k sei eine Folge aus V mit kxl+1 − ak ≤ qkxl − ak Ist 0 ≤ q < 1, so gilt

f¨ ur l ≥ k.

lim xl = a.

(15) (16)

l→∞

Man sagt dann, die Folge konvergiert (mindestens) linear gegen a. Beweis. Aus (15) folgt induktiv kxl − ak ≤ q l−k kxk − ak.

(17)

Wegen 0 ≤ q < 1 ist 0 ≤ q l+1 ≤ q l , also ist die Folge der q l monoton fallend und beschr¨ankt. Aus Satz 10.6 folgt daher lim q l = inf q l = 0. Nach der Definition des Limes gibt es ein N l→∞

mit sup q l ≤ ǫq k /kxk − ak, und aus (17) wird l>N

sup kxl − ak ≤ l>N



sup q l>N

l



q −k kxk − ak ≤ ǫ. ⊓ ⊔

Daher gilt (16). ⊓ ⊔

10.8 Satz Es gilt 1 =0 l→∞ l α lim z l = 0

f¨ ur 0 < α ∈ Q,

(18)

f¨ ur z ∈ C, |z| < 1,

(19)

lim lm z l = 0

f¨ ur m ∈ Q, z ∈ C, |z| < 1,

(20)

f¨ ur alle z ∈ C,

(21)

f¨ ur alle a > 0,

(22)

lim

l→∞

l→∞

zl =0 l→∞ l! √l lim a = 1 l→∞ √l lim l = 1. lim

(23)

l→∞

Beweis. (i) Sei a = m/n, mit 0 < m, n ∈ Q. F¨ ur l ≥ 1 ist lα = l

m−1 n

1

1

ln ≥ ln,

167 also

Daher gilt (18).

1 1 ≤ 11 ≤ ǫ f¨ ur l ≥ N := n . lα ǫ ln

(ii) Setze xl := z l , a := 0. Dann ist |xl+1 − a| = |z l+1 | = |z||z l | = |z||xl − a|, und wegen q := |z| < 1 folgt aus dem vorigen Satz lim xl = a, also (19). (iii) F¨ ur z = 0 ist (20) klar. F¨ ur z 6= 0 setzen wir xl := lm z l . Dann ist m   |xl−1 | m 1 (l − 1)m |z|l−1 −1 −1 1 − ≥ |z| 1 − = = |z| |xl | lm |z|l l l (Bernoulli’sche Ungleichung). F¨ ur l ≥ m(1 + |z|)/(1 − |z|) ist   1 − |z| 1 − |z| |xl−1 | 2 m −1 1− ≤ , also ≥ |z| = . l 1 + |z| |xl | 1 + |z| 1 + |z|

Daher ist |xl | ≤ 1+|z| |xl−1 | f¨ ur fast alle l, und mit a := 0, q := 2 anwendbar und liefert (20). (iv) Setze xl := z l /l!. Dann ist |xl+1 | = ergibt sich wie zuvor (21).

|z| |x | l+1 l

1+|z| 2

< 1 ist wieder Satz 10.7

≤ 12 |xl | f¨ ur l ≥ 2|z|−1, und mit a := 0, q :=

1 2

√ 1 (v) Ist a ≥ 1 so ist nach Satz 5.30(ii) 1 ≤ l a = (1 + a − 1) l ≤ 1 + 1l (a − 1), wegen (18) und √l √ √ (12) also 1 ≤ lim l a ≤ 1, und (22) folgt. Ist a < 1, so ist lim l a = 1/ lim a−1 = 1/1 = 1, l→∞

und (22) gilt ebenfalls.

√ √ √ 2 (vi) Nach Satz 5.30(ii) ist 1 ≤ l l = (1 + l − 1) l ≤ 1 + 2l ( l − 1) = 1 + √l l → ∞ folgt wegen (18) wieder lim l = 1. ⊓ ⊔

2 l1/2

− 2l , und f¨ ur

l→∞

⊓ ⊔ Man kann die Grenzwertbeziehungen durch Landausymbole ausdr¨ ucken: 10.9 Definition (i) Eine reelle Folge mit Grenzwert Null heißt Nullfolge. (ii) Man schreibt xl = yl + o(αl ) falls eine Nullfolge ǫ≥0 mit kxl − yl k ≤ ǫl |αl |

f¨ ur l → ∞, f¨ ur fast alle l

existiert, und xl = yl + O(αl ) falls eine Konstante γ > 0 mit kxl − yl k ≤ γ|αl | existiert.

f¨ ur l → ∞, f¨ ur fast alle l

168

KAPITEL 10. GRENZWERTE

Damit folgt aus Satz 10.8 unmittelbar (f¨ ur l → ∞): lm = o(ln ) z l = o(lm ) z l = o(q l ) z l = o(l!) 1 = o(q l ) l!

falls m < n, falls |z| < 1, m beliebig, falls |z| < q, f¨ ur alle z ∈ C, f¨ ur q > 0.

10.10 Satz (L’Hospital) (i) Sind f, g ∈ F(R, R) in einer Umgebung von a stetig differenzierbar und gilt f (a) = g(a) = 0, g ′ (a) 6= 0, so ist

f (x) f ′ (a) = ′ . x→a g(x) g (a) lim

(ii) Sind f, g ∈ F(R, R) in einer Umgebung von a n-mal stetig differenzierbar und gilt f (k) (a) = g (k) (a) = 0 f¨ ur k = 0, ..., n − 1, g (n) (a) 6= 0, so ist f (x) f (n) (a) = (n) . x→a g(x) g (a) lim

Beweis. (i) ist der Spezialfall n = 1 von (ii); es reicht also (ii) zu zeigen. Dazu entwickeln wir f und g in eine Taylorreihe um a. Wegen der Annahmen fallen alle Glieder mit einer Potenz < n weg; also ist f (x) =

f (n) (a) (x − a)n + o((x − a)n ) n!

g (n) (a) (x − a)n + o((x − a)n ) n! Division und k¨ urzen von (x − a)n /n! ergibt g(x) =

f (n) (a) + o(1) f (n) (a) f (x) = (n) −→ (n) g(x) g (a) + o(1) g (a)

f¨ ur x → a, f¨ ur x → a.

f¨ ur x → a.

⊓ ⊔ ⊓ ⊔

10.11 Bemerkung. Etwas allgemeiner l¨aßt sich zeigen, daß f ′ (x) f (x) = lim ′ lim x→a g (x) x→a g(x)

falls f (a) = g(a) = 0;

aber im konkreten Rechnen l¨auft das meistens gerade auf den im Satz formulierten Fall hinaus. Zum Beispiel ist

x n − an nxn−1 nan−1 = lim = = nan−1 . x→a x − a x→a 1 1 lim

169 10.12 Definition (i) a ∈ V heißt H¨ aufungspunkt der Folge x≥k aus V , falls jede Umgebung von a unendlich viele Folgenglieder xl enth¨alt. (ii) Eine Teilfolge der Folge xl (l = k, k + 1, ...) ist eine Folge der Form xlj (j = 0, 1, ...), wobei die lj (j = 0, 1, ...) eine unbeschr¨ankte Folge nat¨ urlicher Zahlen bilden. 10.13 Beispiele. (f¨ ur V = R): (i) xl = l (l = 0, 1, ...): kein H¨aufungspunkt, divergent. (ii) xl = (−1)l (l = 0, 1, ...): H¨aufungspunkte 1 und −1, divergent. (iii) xl = (−1)l (1 + 1l ) (l = 0, 1, ...): H¨aufungspunkte 1 und −1, divergent. (iv) xl =

1 l

(l = 1, 2, ...): Einziger H¨aufungspunkt 0, konvergent mit Limes 0.

(v) xl = (− 12 )l (l = 1, 2, ...): Einziger H¨aufungspunkt 0, konvergent mit Limes 0. 10.14 Proposition Eine Folge hat genau dann eine konvergente Teilfolge mit Grenzwert a, falls a ein H¨aufungspunkt der Folge ist. Beweis. (i) a sei H¨aufungspunkt der Folge x≥k . Dann gibt es f¨ ur jedes j ≥ 0 einen Index lj ≥ j mit kxlj − ak ≤ 2−j (sogar unendlich viele!), und es folgt lim kxlj − ak ≤ lim 2−j = 0. Also j→∞

j→∞

ur j → ∞ gegen a. konvergiert xlj f¨

(ii) Gilt umgekehrt xlj → a f¨ ur j → ∞, so gibt es f¨ ur jedes ǫ > 0 ein N mit kxlj − ak ≤ ǫ f¨ ur j > N , also enth¨alt die ǫ-Umgebung von a unendlich viele Glieder der Folge. Da ǫ > 0 beliebig war, ist a ein H¨aufungspunkt. ⊓ ⊔ ⊓ ⊔ F¨ ur beschr¨ankte reelle Folgen kann man den kleinsten und gr¨oßten H¨aufungspunkt als Grenzwert ausdr¨ ucken: 10.15 Satz F¨ ur jede beschr¨ankte reelle Folge α≥k existieren die Grenzwerte lim inf αl := lim ( inf αm ),

(Limes inferior)

(24)

lim sup αl := lim (sup αm ).

(Limes superior)

(25)

l→∞

l→∞

l→∞ m≥l

l→∞ m≥l

Beide Grenzwerte sind H¨aufungspunkte der Folge, und f¨ ur jeden H¨aufungspunkt γ gilt lim inf αl ≤ γ ≤ lim sup αl . l→∞

l→∞

(Man schreibt auch lim statt lim inf und lim statt lim sup.)

170

KAPITEL 10. GRENZWERTE

Beweis. (i) F¨ ur die durch βl := inf αm definierte Folge gilt βl ≤ βl+1 ≤ sup αm < ∞; m≥l

m≥k

also ist die Folge monoton wachsend und nach oben beschr¨ankt. Nach Satz 10.6. existiert also der Limes β := lim βl = sup βl . Um β als H¨aufungspunkt nachzuweisen, l→∞

konstruieren wir eine gegen β konvergente Teilfolge αlj (j = 0, 1, ...). Dazu w¨ahlen wir uns ein l mit |βl − β| ≤ 2−j . Wegen βl = inf {αm |m ≥ l} gibt es ein αlj mit βl ≤ αlj ≤ βl + 2−j , und es ist |αlj − β| ≤ |αlj − βl | + |βl − β| ≤ 2−j + 2−j = 21−j , also lim |αlj − β| ≤ lim 21−j = 0. Also konvergieren die αlj gegen β. j→∞

j→∞

Daher ist β = lim inf αl ein H¨aufungspunkt. (ii) F¨ ur eine beliebige Zahl β ′ < β ist ε := 21 (β − β ′ ) > 0, also gibt es ein l mit |βl − β| ≤ ε. F¨ ur m ≥ l ist dann αm ≥ βl ≥ β − ε = β ′ + ε, also kann die ε-Umgebung von β ′ nur noch endlich viele αj enthalten. Daher kann β ′ kein H¨aufungspunkt sein; d.h., f¨ ur jeden H¨aufungspunkt γ muß γ ≥ β = lim inf αl gelten. (iii) Die Aussagen f¨ ur lim sup folgen analog. ⊓ ⊔ ⊓ ⊔

10.16 Definition Eine Folge mit der Eigenschaft sup kxl − xm k → 0 m≥l

f¨ ur l → ∞

(26)

heißt Cauchy-Folge. Ein normierter Raum V heißt Banachraum, falls jede Cauchyfolge in V konvergiert. 10.17 Bemerkungen. (i) (26) besagt, daß f¨ ur große l die xm (m ≥ l) beliebig nahe beisammen bleiben, sich also irgendwo im Raum h¨aufen - an einem H¨aufungspunkt oder einem ’Loch’, und ein Banachraum ist daher anschaulich ein ’Raum ohne L¨ocher’. Der 1-dimensionale Vektorraum K = Q u ¨ber den rationalen Zahlen ist kein Banachraum, da er bei allen irrationalen Zahlen L¨ocher hat. (ii) Es l¨aßt sich zeigen, daß sich jeder normierte Raum V durch Hinzuf¨ ugen aller ”L¨ocher” so zu einem Banachraum V ′ ”vervollst¨andigt” werden kann, daß V in V ′ ”dicht” liegt. Die Konstruktion entspricht der Konstruktion von R aus Q. 10.18 Proposition (i) Jede konvergente Folge ist eine Cauchy-Folge. (ii) Jede Cauchy-Folge ist beschr¨ankt und hat h¨ochstens einen H¨aufungspunkt. Beweis.

171 (i) Sei lim xl = a und ǫ > 0. Dann gilt kxl − ak ≤ l→∞

ǫ 2

m ≥ l > N ist kxl − xm k ≤ kxl − ak + kxm − ak ≤

f¨ ur fast alle l, etwa f¨ ur l > N , und f¨ ur ǫ 2

+

ǫ 2

= ǫ. Daher ist sup kxl − xm k ≤ ǫ m≥l

f¨ ur fast alle l, d.h. (26) gilt. Daraus folgt (i). (ii) F¨ ur eine Cauchy-Folge x≥k und beliebige ǫ > 0 gibt es ein N mit sl := sup kxl − xm k ≤ ǫ m≥l

f¨ ur l ≥ N.

(27)

F¨ ur l = N folgt kxm k ≤ kxN k + ǫ

f¨ ur m ≥ N,

also ist sup kxl k = max(kxk k, kxk+1 k, . . . , kxN −1 k, kxN k + ǫ). Daher ist die Folge beschr¨ankt. W¨aren a und b zwei verschiedene H¨aufungspunkte, so w¨are ǫ := 14 ka − bk > 0, und die Kugeln B[a; ǫ] und B[b; ǫ] enthielten beide unendlich viele Folgenglieder. Es gibt daher ein l ≥ N mit xl ∈ B[a; ǫ] und ein m ≥ l mit xm ∈ B[a; ǫ], und kxl − xm k ≥ ka − bk − kxl − ak − kxm − bk ≥ 4ǫ − ǫ − ǫ = 2ǫ ergibt einen Widerspruch mit (27). Also kann es h¨ochstens einen H¨aufungspunkt geben. ⊓ ⊔ ⊓ ⊔

10.19 Satz (Bolzano-Weierstraß) Jede beschr¨ankte Folge in Rn hat mindestens einen H¨aufungspunkt; insbesondere ist Rn ein Banachraum. Beweis. (i) Wir zeigen induktiv, daß jede beschr¨ankte Folge im Rn einen H¨aufungspunkt hat; F¨ ur n = 1 gilt dies nach Satz 10.15. Angenommen, die Behauptung gilt f¨ ur ein n. F¨ ur eine beschr¨ankte Folge x≥k in Rn+1 betrachten wir die Folge α≥k aus R mit αl := (xl )n+1 . Wegen kαl k ≤ kxl k ist die Folge beschr¨ankt, hat also einen H¨aufungspunkt α⋆ und daher eine gegen α⋆ konvergente Teilfolge αlj (j = 0, 1, . . .). Die Folge y≥0 aus Rn mit yj := (xlj )1:n ist wegen kyj k ≤ kxlj k ebenfalls beschr¨ankt und hat nach Induktionsannahme einen H¨aufungspunkt y∗. Der Punkt x∗ ∈ Rn+1 mit x∗i := yi∗ f¨ ur i ≤ n und x∗n+1 := α∗ ist nun ein H¨aufungspunkt der Folge x≥k . Denn in jeder ǫ-Umgebung liegen unendlich viele yj , und f¨ ur fast alle dieser Indices (also ebenfalls f¨ ur unendlich viele) liegt αlj in einer ǫ-Umgebung von α∗ , also xlj in einer ǫ-Umgebung von x∗ . Also gilt die Behauptung f¨ ur n + 1 statt n, und daher allgemein. (ii) Jede Cauchy-Folge in Rn ist nach Proposition 10.18(ii) beschr¨ankt und hat h¨ochstens einen H¨aufungspunkt, nach dem eben bewiesenen also genau einen. Dieser ist der Grenzwert ¨ (Ubungsaufgabe). Also konvergiert jede Cauchyfolge im Rn , d.h. Rn ist Banachraum. ⊓ ⊔

172

KAPITEL 10. GRENZWERTE ⊓ ⊔

10.20 Satz In einem Banachraum V ist jede Folge x≥k mit der Eigenschaft kxl+1 − xl k ≤ αq l

f¨ ur l = k, k + 1, . . .

(28)

und 0 ≤ q < 1 linear konvergent, und f¨ ur den Grenzwert x⋆ gilt kx⋆ − xl k ≤ αq l /(1 − q)

f¨ ur l = k, k + 1, . . .

(29)

Interpretation: Die xm (m ≥ l) k¨onnen nicht schnell genug weglaufen von xl um divergent zu sein. Beweis. Setze γ := α/(1 − q). Wir beweisen induktiv die Ungleichung kxl − xm k ≤ γ(q l − q m )

f¨ ur alle m ≥ l;

(30)

dabei halten wir l fest. F¨ ur m = l ist (30) trivial. Gilt (30) f¨ ur ein m ≥ l, so folgt kxl − xm+1 k ≤ kxl − xm k + kxm+1 − xm k ≤ γ(q l − q m ) + αq m = γ(q l − q m ) + γ(1 − q)q m = γ(q l − q m+1 ); also gilt (30) f¨ ur m + 1 statt m, und daher allgemein. Wegen q < 1 gilt sup kxl − xm k ≤ sup γ(q l − q m ) = γq l → 0 f¨ ur l → ∞. m≥l

m≥l

Also ist x≤k eine Cauchy-Folge. Da V Banachraum ist, konvergiert die Folge gegen einen Grenzwert x∗ , und aus (30) folgt kxl − x∗ k = lim kxl − xm k ≤ lim γ(q l − q m ) = γq l = αq l /(1 − q), m→∞

m→∞

also (29). Dies bedeutet lineare Konvergenz. ⊓ ⊔

⊓ ⊔

10.21 Bemerkung. Die schw¨achere Bedingung kxl+1 − xl k → ur Konvergenz √ 0 reicht f¨ √ nicht aus; ein Gegenbeispiel bildet die divergierende Folge x := l mit x l + 1− −x = l l+1 l √ 1 √ l = √l+1+ → 0 f¨ u r l → ∞. l Als Anwendung beweisen wir: 10.22 Satz A sei eine lineare Selbstabbildung des Banachraumes V mit kAk < 1. Dann hat die Abbildung I − A eine beschr¨ankte Inverse, und es ist k(I − A)−1 k ≤ (1 − kAk)−1 . Beweis.

(31)

173 (i) Um zu zeigen, daß I − A surjektiv ist, m¨ ussen wir zu jedem b ∈ V eine L¨osung von (I − A)x = b finden. Das ist ¨aquivalent zu x = Ax + b. Wir betrachten dazu die durch x0 := 0, xl := Axl−1 + b f¨ ur l > 0

(32)

definierte Folge x≥0 . Es ist kxl+1 − xl k = kAxl + b − (Axl−1 + b)k = kA(xl − xl−1 )k ≤ kAk kxl − xl−1 k, und mit q := kAk folgt induktiv kxl+1 − xl k ≤ q l kx1 − x0 k. Also ist Satz 10.20 anwendbar und zeigt, daß x := liml→∞ xl existiert. Da A beschr¨ankt ist, ist die rechte Seite von (32) stetig, also ergibt sich durch Grenz¨ ubergang die gew¨ unschte Beziehung x = Ax + b. (ii) F¨ ur eine beliebige L¨osung x von (I − A)x = b gilt kxk = kAx + bk ≤ kAk kxk + kbk, also (1 − kAk)kxk ≤ kbk, und daher kxk ≤ (1 − kAk)−1 kbk.

(33)

Insbesondere folgt aus b = 0 mit (33), daß x = 0 ist; d.h. die homogene Gleichung hat nur die triviale L¨osung. Daher ist I − A injektiv, also bijektiv, und x = (I − A)−1 b. Aus (33) folgt dann k(I − A)−1 k = sup k(I − A)−1 bk ≤ sup (1 − kAk)−1 kbk = (1 − kAk)−1 ; kbk=1

kbk=1

die Inverse ist also beschr¨ankt. ⊓ ⊔ ⊓ ⊔

174

KAPITEL 10. GRENZWERTE

Kapitel 11 Differentialoperatoren und Differentialformen In diesem Kapitel behandeln wir gewisse Aspekte der Analysis vom Standpunkt der linearen Algebra aus. Wir zeigen, daß sich die partiellen Ableitungen und Richtungsableitungen als lineare Abbildungen, sogenannte Differentialoperatoren, interpretieren lassen, stellen den f¨ ur die Elementarteilchenphysik wichtigen Begriff der Lie-Algebra vor, und leiten eine Formel f¨ ur die Taylorentwicklung von Skalarfeldern her. Außerdem behandeln wir alternierende p-Linearformen in Funktionenr¨aumen; diese Differentialformen f¨ uhren im 3-Dimensionalen auf die z.B. im Elektromagnetismus wichtigen Differentialoperatoren grad, rot und div. Der Begriff der ¨außeren Ableitung von Differentialformen bereitet schließlich den Boden f¨ ur die Integrals¨atze der mehrdimensionalen Integralrechnung. Wir beginnen mit dem Zusammenstellen einiger Eigenschaften des Raumes C ∞ (Ω) aller beliebig oft differenzierbaren Skalarfelder f : Ω → K, wobei Ω ein Gebiet im normierten Raum V ist. 11.1 Proposition (i) C ∞ (Ω) ist mit den punktweisen Operationen ein kommutativer Ring. (ii) F¨ ur alle h ∈ V ist die Richtungsableitung ∇h eine lineare Abbildung von C ∞ (Ω) in sich selbst. ˜ ∈ V gilt die Vertauschungsrelation (iii) F¨ ur alle h, h ∇h ∇h˜ = ∇h˜ ∇h .

(1)

Beweis. (i) Sind f und g beide r-mal stetig differenzierbar, so sind ∇h (f ± g) = ∇h f ± ∇h g und ∇h (f g) = (∇h f )g + f (∇h g) noch (r − 1)-mal stetig differenzierbar. Sind also f, g ∈ C ∞ (Ω), so sind auch f ± g und f g beliebig oft stetig differenzierbar, also gilt f ± g, f g ∈ C ∞ (Ω). Daher ist C ∞ (Ω) ein Ring. Wegen (f g)(x) = f (x)g(x) = g(x)f (x) = (gf )(x) f¨ ur alle x ∈ Ω ∞ ist f g = gf , also ist C (Ω) ein kommutativer Ring. 175

176

KAPITEL 11. DIFFERENTIALOPERATOREN UND DIFFERENTIALFORMEN

(ii) Nach Definition von C ∞ (Ω) ist f¨ ur f ∈ C ∞ (Ω) auch ∇h f beliebig oft stetig differenzierbar, also bildet ∇h den Ring C ∞ (Ω) in sich selbst ab. Wegen ∇h (αf ) = α∇h f f¨ ur alle α ∈ K und ∇h (f + g) = ∇h f + ∇h g ist ∇h eine lineare Abbildung. (iii) ergibt sich sofort aus Satz 7.23.

⊓ ⊔ ⊓ ⊔

11.2 Definition Die linearen Abbildungen von C ∞ (Ω) in sich selbst heißen lineare Operatoren auf C ∞ (Ω). Lineare Operatoren, die aus den Richtungsableitungen und (f¨ ur f ∈ ∞ C (Ω)) den Multiplikationsoperatoren ψ → fψ

(ψ ∈ C ∞ (Ω))

(2)

durch Summen- und Produktbildung entstehen, heißen Differentialoperatoren. Die durch (2) definierten Multiplikationsoperatoren werden wieder mit dem Buchstaben f bezeichnet. 11.3 Beispiel. In der Physik spielen lineare Operatoren eine ganz zentrale Rolle in der Quantenmechanik. Anders als in der klassischen Physik werden dabei Beobachtbare Gr¨oßen (Observable) nicht durch die Zahlen, sondern durch Operatoren dargestellt, die WahrscheinlichkeitsWellenfunktionen (Orbitale) aufeinander abbilden. Die Menge Ω ist hier ein Teilchenraum V = (R3 )N , wobei N die Zahl der betrachteten Teilchen ist, ψ(x1 , . . . , xN ) stellt die (komplexe) Wahrscheinlichkeitsamplitude daf¨ ur dar, daß die N Teilchen sich an den Orten x1 , . . . , xN befinden, und |ψ(x1 , . . . , xn )|2 die (reelle) Wahrscheinlichkeitsdichte. Ortskoordinaten werden durch Multiplikationsoperatoren (xl )k (l = 1, . . . , N ; k = 1, 2, 3) beschrieben, Impulskoordinaten durch die (komplexen) Differentialoperatoren (pl )k =

h ¯ ∂ . i ∂(xl )k

(Dabei ist h ¯ das sogenannte Planck’sche Wirkungsquantum). Also ist (xl ψ)(x1 , . . . , xN ) = xl ψ(x1 , . . . , xN ), h ¯ ∂ψ (x1 , . . . , xN ). (pl ψ)(x1 , . . . , xN ) = i ∂xl Der wesentliche Unterschied zur klassischen Physik dr¨ uckt sich darin aus, daß Orts- und Impulskoordinaten mit demselben Index nicht mehr miteinander vertauschbar sind, d.h. es ist (xl )k (pl )k 6= (pL )k (xl )k . Um diese Abweichung von der Kommutativit¨at zu beschreiben, f¨ uhrt man den Begriff des Kommutators ein. 11.4 Definition F¨ ur Elemente A, B aus einem Ring R nennt man [A, B] := AB − BA den Kommutator von A und B. 11.5 Proposition In jedem Ring gelten f¨ ur Kommutatoren die Lie-Algebra-Gesetze

177 (L1) [A, B] = −[B, A], (L2) [A, B + C] = [A, B] + [A, C], (L3) [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0. (Jacobi-Identit¨ at) Außerdem gilt die Produktregel (L0) [A, BC] = [A, B]C + B[A, C]. Beweis. (L1): [A, B] = AB − BA = −(BA − AB) = −[B, A]. (L2): [A, B + C] = A(B + C) − (B + C)A = AB + AC − BA − CA = AB − BA + AC − CA = [A, B] + [A, C]. (L3): Es ist [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = [A, BC − CB] + [B, CA − AC] + [C, AB − BA] = A(BC − CB) − (BC − CB)A + B(CA − AC) − (CA − AC)B + C(AB − BA) − (AB − BA)C. Nach Ausmultiplizieren k¨ urzt sich jeder positive Term gegen einen negativen weg, so daß sich der Ausdruck zu Null vereinfacht. (L0): [A, B]C + B[A, C] = (AB − BA)C + B(AC − CA) = ABC − BCA = [A, BC]. ⊓ ⊔ ⊔ ⊓ Lie-Algebren, d.h. Vektorr¨aume, in denen eine Operation [·, ·] mit den Eigenschaften (L1)–(L3) definiert ist, spielen in der Elementarteilchenphysik eine große Rolle, wo sie die Symmetriegruppen der verschiedenen Teilchen klassifizieren. Die Regeln (L2) und (L0) zeigen, daß sich f¨ ur festes A die Abbildung B → [A, B] wie eine Ableitung von B verh¨alt. Wie der n¨achste Satz zeigt, ist das kein Zufall. 11.6 Satz Ω ⊆ Rn sei ein Gebiet. Dann gilt im Ring Lin(C ∞ (Ω)) der linearen Operatoren auf C ∞ (Ω) die Beziehung ∂g [∇i , g] = (i = 1 . . . , n) (3) ∂xi (wobei g und

∂g ∂xi

Multiplikationsoperatoren sind).

Beweis. Wir m¨ ussen zeigen, daß die beiden Abbildungen links und rechts von (3) ein beliebiges f ∈ C ∞ (Ω) auf dieselbe Funktion abbilden. Tats¨achlich ist   ∂f ∂ (gf ) − g [∇i , g]f = (∇i g − g∇i )f = ∇i (gf ) − g(∇i f ) = ∂xi ∂xi         ∂f ∂f ∂g ∂g f +g −g = f. ⊓ = ⊔ ∂xi ∂xi ∂xi ∂xi ⊓ ⊔ F¨ ur die Operatoren aus Beispiel 11.3 erh¨alt man insbesondere   h ¯ [(pl )k , (xm )j ] = ∇lk , (xm )j i

178

KAPITEL 11. DIFFERENTIALOPERATOREN UND DIFFERENTIALFORMEN h ¯ ∂(xm )j = = i ∂(xl )k

(

wegen 1/i = −i und (L1) also [(xm )j , (pl )k ] =

h ¯ /i 0

(

i¯ h 0

falls m = l, j = k, sonst,

falls m = l, j = k, sonst.

(4)

Man nennt (4) die kanonischen Vertauschungsrelationen der Quantenmechanik. (4) dr¨ uckt aus, daß sich Ort xm und Impuls pl desselben Teilchens (m = l) in derselben Richtung (j = k) nicht gleichzeitig beliebig scharf definieren lassen (was nur bei Kommutativit¨at m¨oglich w¨are). Nach den linearen Operatoren aus C ∞ (Ω) wollen wir als n¨achstes interessante Multilinearformen mit Werten im Ring R = C ∞ (Ω) untersuchen. Symmetrische p-Linearformen treten bei der mehrdimensionalen Taylorentwicklung von Skalarfeldern auf. 11.7 Proposition Ω ⊆ V sei ein Gebiet. F¨ ur jedes f ∈ C ∞ (Ω) ist die durch Dp f (h1 , · · · , hp ) := ∇h1 · · · ∇hp f (hj ∈ V )

(5)

definierte Abbildung Dp f : V ×p → C ∞ (Ω) eine symmetrische p-Linearform mit Werten in C ∞ (Ω). Im Fall V = Kn hat sie die Koordinaten (Dp f )k1 ···kp = ∇k1 · · · ∇kp f. (kj ∈ [n])

(6)

Beweis. Wegen der Vertauschbarkeit der Richtungsableitung (Proposition 11.1(iii)) kommt es auf die Reihenfolge der hj nicht an. Zum Nachweis der p-Linearit¨at gen¨ ugt es also, die Linearit¨at im ersten Argument nachzupr¨ ufen. Schreiben wir g := ∇h2 · · · ∇hp f so finden wir Dp f (αh′1 + βh′′1 , h2 , · · · , hp )(x) = ∇αh′1 +βh′′1 g(x) = g ′ (x)(αh′1 + βh′′1 ) = αg ′ (x)h′1 + βg ′ (x)h′′1 = α∇h′1 g(x) + β∇h′′1 g(x) = αDp f (h′1 , h2 , · · · , hp ) + βDp f (h′′1 , h2 , · · · , hp ). Also ist Dp f eine symmetrische p-Linearform. Im Fall V = Kn ergeben sich die Koordinaten aus (Dp f )k1 ,···,kp = Dp f (e(k1 ) , · · · , e(kp ) ) = ∇e(k1 ) · · · ∇e(kp ) f = ∇k1 · · · ∇kp f. ⊓ ⊔

⊓ ⊔

Mit Hilfe von Dp k¨onnen wir die Taylorentwicklung ins Mehrdimensionale ausdehnen: 11.8 Satz (Taylorentwicklung) Ω ⊆ V sei Gebiet, f ∈ C ∞ (Ω). Liegt die Strecke x, x + h in Ω, so gilt k X 1 p D f (h, . . . , h)(x) + O(khkk+1 ). f (x + h) = p! p=0

(7)

179 F¨ ur V = Rn ist auch f (x + h) =

X

k1 +···+kn

∇k11 ∇ kn · · · n f (x) hk11 · · · hknn + O(khkk+1 ). k1 ! kn ! ≤k

(8)

Beweis. Die Funktion g : [0, 1] → K mit g(t) := f (x + th) f¨ ur t ∈ [0, 1] hat nach der Kettenregel die Ableitung g ′ (t) = f ′ (x + th)h = ∇h f (x + th), und induktiv ergeben sich die h¨oheren Ableitungen dp (5) g(t) = ∇ph f (x + th) = Dp f (h, . . . , h)(x + th). p dt Also ist f¨ ur feste h und kleine t f (x + th) = g(t) =

k X g (p) (0) p=0

p!

tp + O(tk+1 )

k X 1 p D f (h, . . . , h)(x)tp + O(tk+1 ) = p! p=0

k X 1 p = D f (th, . . . , th)(x) + O(kthkk+1 ). p! p=0

Ersetzen wir hier th durch h, so folgt (7). F¨ ur X V = Rn k¨onnen wir (7) in Koordinaten ausdr¨ ucken, indem wir das s-te Argument h als his e(is ) schreiben: is

Dp f (h, . . . , h) =

X

i1 ,...,ip

=

X

i1 ,...,ip

hi1 · · · hip Dp f (e(i1 ) , . . . , e(ip ) ) hi1 · · · hip ∇i1 · · · ∇ip f.

Wegen der Symmetrie k¨onnen wir die ∇i1 · · · ∇ip so umordnen, daß Ableitungen mit kleineren Indizes zuerst kommen. Treten dabei die Indizes j genau kj mal auf, so ist k1 +· · ·+kn = p, und wir erhalten einen Ausdruck hk11 · · · hknn ∇k11 · · · ∇knn f . Dieser Ausdruck tritt so oft p! auf, wie wir ihn als hi1 · · · hip ∇i1 · · · ∇ip f anordnen k¨onnen, und das geht auf genau k1 !···k n! Arten. Also ist X 1 p D f (h, . . . , h) = p! k +···+k 1

Einsetzen in (7) ergibt nun (8). ⊓ ⊔

n =f

1 hk11 · · · hknn ∇k11 · · · ∇knn f. k1 ! · · · kn ! ⊓ ⊔

180

KAPITEL 11. DIFFERENTIALOPERATOREN UND DIFFERENTIALFORMEN

Im Spezialfall k = 2 sind in (8) alle ki mit h¨ochstens zwei Ausnahmen Null. Man erh¨alt die Terme . . . kein ki 6= 0 . . . ki = 1

f (x + h) = f (x) X + ∇i f (x)hi i

X ∇2 i + f (x)h2i 2 i X + ∇i ∇j f (x)hi hj

· · · ki = 2 · · · ki = kj = 1, i < j

i 3) : ω p (x) = 0. Wir wollen nun der bisher unmotivierten Bezeichnung dxi f¨ ur die Koordinatenformen einen tieferen Sinn geben, indem wir einer Klasse von p-Formen, den exakten Formen, eine ”infinitesimale” Interpretation geben. Dazu brauchen wir noch ein paar Vorbereitungen. 11.13 Definition (i) Die ¨ außere Ableitung einer stetig differenzierbaren p-Form ω(x) = F (x) · dxp ist die (p + 1)-Form dω(x) = G(x) · dxp+1 mit Gi1 ···ip+1 (x) :=

p+1 X l=1

(−1)l−1 ∇il Fi1 ···il−1 il+1 ···ip+1 (x) f¨ ur i1 < · · · < ip+1 .

(14)

(ii) Eine (p + 1)-Form heißt exakt (oder total), falls sie sich in der Form dω mit einer p-Form ω schreiben l¨aßt. (iii) Eine p-Form ω heißt geschlossen, falls dω = 0. Die Vorzeichen in (14) sind so gew¨ahlt, daß sich ein u ¨bersichtlicher Zusammenhang mit Kettenregel und Dachprodukt ergibt: 11.14 Proposition

183 (i) F¨ ur die ¨außere Ableitung einer stetig differenzierbaren 0-Form f gilt df (x) =

n X ∂f (x) k=1

∂xi

dxi = ∇f (x) · dx = f ′ (x)dx.

(15)

Insbesondere ist dxi die ¨außere Ableitung der i-ten Koordinatenabbildung f (x) = xi . (ii) F¨ ur die ¨außere Ableitung einer stetig differenzierbaren p-Form ω(x) =

X

FI (x)dxI

|I|=p

gilt dω(x) =

X

|I|=p

dFI (x) ∧ dxI .

(16)

(iii) F¨ ur die ¨außere Ableitung einer stetig differenzierbaren (n − 1)-Form ω(x) = F (x) · dS(x) gilt dω(x) = div F (x)dxn mit der Divergenz div F (x) = ∇ · F (x) =

n X i=1

∇i Fi (x).

Beweis. (i) In Definition 11.13 ist f¨ ur p = 0 ω(x) = F (x), dω(x) = G(x) · dx mit Gi (x) = ∇i F (x), also G = ∇F , und (15) folgt. (ii) F¨ ur eine p-Menge I = {i1 , . . . , ip } (i1 < . . . < ip ) betrachten wir einen Term von (16): Wegen (15) ist n X ∂FI (x) dxk ∧ (dxi1 ∧ · · · ∧ dxip ). (17) dFI (x) ∧ dxI = ∂x k k=1 Wegen dxk ∧ dxk = 0 und dxk ∧ dxi = −dxi ∧ dxk verschwinden in (17) die Terme mit k ∈ I. F¨ ur die u ucke ¨brigen Summanden erhalten wir die richtig sortierten Ausdr¨ (−1)l−1

∂FI (x) ∂FI (x) dxi1 ∧ dxil−1 ∧ dxik ∧ dxil ∧ · · · ∧ dxip = (−1)l−1 dxI∪{k} , ∂xk ∂xk

184

KAPITEL 11. DIFFERENTIALOPERATOREN UND DIFFERENTIALFORMEN

wobei l der Index mit il−1 < k < il (bzw. l = 1 falls k < i1 , l = p + 1, falls k > ip ) ist. Mit J = I ∪ {k} = {j1 , . . . , jp+1 }, j1 < · · · < jp+1 und k = jl folgt X XX ∂FI (x) dFI (x) ∧ dxI = (−1)lk −1 dxI∪{k} dxk |I|=p |I|=p k∈I / ! p+1 X X ∂F J\{jl } = (−1)l−1 dxJ ∂x jl l=1 (14)

=

|J|=p+1

X

|J|=p+1

GJ (x)dxJ = G(x) · dxp+1 = dω(x).

(iii) Es ist ω(x) = F˜ (x) · dxn−1 mit F˜I (x) = (−1)i−1 Fi (x) f¨ ur I = [n] \ {i}, nach (14) also n dω(x) = G(x)dx mit G(x) = G1···n (x) =

n X l=1

=

n X l=1

(−1)l−1 ∇l F˜[n]\{l} (x)

∇l Fl (x) = div F (x). ⊓ ⊔ ⊓ ⊔

11.15 Bemerkung. Die Divergenz div F (x) eines Vektorfeldes F in R3 beschreibt die Quellst¨arke eines durch F bestimmten Flusses am Punkt x. F¨ ur div F > 0(< 0) ist der Punkt x eine Quelle (Senke), d.h. es fließt mehr (weniger) aus x heraus als in x hineinfließt. Die mathematisch pr¨azise Formulierung dieses Sachverhaltes erfordert Oberfl¨achenintegrale und den Gaußschen Integralsatz und kann daher hier noch nicht gegeben werden. 11.16 Beispiel. Wir betrachten wieder den physikalischen wichtigsten Fall n = 3 und kn¨ upfen an Beispiel 11.12 an. (i) F¨ ur ω 0 (x) = f (x) ist (vgl. (15)) dω 0 (x) = df (x) = ∇f (x) · dx = grad f (x) · dx.

Die exakten 1-Formen sind gerade die totalen Differentiale. (ii) F¨ ur ω 1 (x) = F (x) · dx ist dω 1 (x) = G(x) · dx2 mit G12 (x) = ∇1 F2 (x) − ∇2 F1 (x), G13 (x) = ∇1 F3 (x) − ∇3 F1 (x), G23 (x) = ∇2 F3 (x) − ∇3 F2 (x).

Bis auf Reihenfolge und Vorzeichen von G13 sind dies genau die Komponenten der Rotation rot F = ∇ × F , und wir erhalten dω 1 (x) = G12 (x)dx1 ∧ dx2 + G13 (x)dx1 ∧ dx3 + G23 (x)dx2 ∧ dx3 = (rot F (x))3 dx1 ∧ dx2 − (rot F (x))2 dx1 ∧ dx3 + (rot F (x))1 dx2 ∧ dx3 = rot F (x) · dS(x).

185 p 0 1 2 3

ω p (x) dω p (x) f (x) grad f (x) · dx F (x) · dx rot F (x) · dS(x) F (x) · dS(x) div F (x) dx3 f (x) dx3 0

Tabelle 11.1: Formen in R3 und ihre ¨außere Ableitung

Man erh¨alt dasselbe Ergebnis auch aus (16): 1

dω (x) = =

n X

i=1 n X

dFi (x) ∧ dxi

i=1

=

X i,j

=

n X j=1

∇j Fi (x)dxj

!

∧ dxi

∇j Fi (x)dxj ∧ dxi

X

(∇i Fj (x) − ∇j Fi (x))dxi ∧ dxj

1≤i 1. Dann l¨aßt sich jede nat¨ urliche Zahl N eindeutig in der Form m X N = (a1 a2 . . . am )B := ak B m−k (9) k=1

mit ganzen Zahlen ak ∈ {0, . . . , B − 1} schreiben.

195 Beweis. durch Induktion nach N . Die Aussage ist mit N = (N )B richtig f¨ ur N < B. Angenommen, sie gilt f¨ ur kleinere Werte von N statt N . Division mit Rest ergibt N = BQ + r mit Q = (N − r)/B ≤ N/B < N , wir k¨onnen also Q eindeutig in der Form Q = (a1 a2 . . . am )B darstellen. Mit am+1 := r ist dann N = BQ + r = B

m X

ak B

m−k

+ am+1 =

k=1

m+1 X

ak B m+1−k = (a1 a2 . . . am am+1 )B .

k=1

Das ist auch die einzige solche Darstellung von N , da aus N = (a1 a2 . . . am am+1 )B sofort N = BQ+r mit Q = (a1 a2 . . . am )B und r = am+1 folgt und die Division mit Rest eindeutig ist. ⊓ ⊔ (9) heißt die B-adische Zahldarstellung von N , B die zur Darstellung verwendete Basis und die ak die Ziffern. Am gebr¨auchlichsten sind das uns vertraute Dezimalsystem (zur Basis B = 10) und f¨ ur die elektronische Rechnung die bin¨are Zahldarstellung (zur Basis B = 2). Da (a1 a2 . . . am )B der Funktionswert des Polynoms p(x) =

m X

ak xm−k

k=1

an der Stelle x0 = B ist, l¨aßt sich eine in B-adischer Zahldarstellung gegebene nat¨ urliche Zahl mit Hilfe des Hornerschemas leicht ins Dezimalsystem umrechnen und umgekehrt. 12.7 Beispiel. Es ist (1001101)2 = (77)10 . Ist die bin¨are Darstellung gegeben, so findet man die dezimale Darstellung mit dem Hornerschema: N (bin¨ar) 1 0 0 1 1 0 1 B=2 2 4 8 18 38 76 2 4 9 19 38 77 = N (dezimal) Ist die dezimale Darstellung gegeben, so findet man die bin¨are Darstellung durch wiederholte Division mit Rest (im Diagramm rechts anfangen!): Q 1 2 4 9 19 38 77 = N (dezimal) r 1 0 0 1 1 0 1 ⇒ N (bin¨ar) BQ 0 2 4 8 18 38 76 (Man nimmt sozusagen das Hornerschema r¨ uckw¨arts.) Rationale Funktionen und projektiver Abschluß. Eine rationale Funktion ist ein Quotient zweier Polynome. Wegen der m¨oglichen Pole einer rationalen Funktion ist es n¨ utzlich, den Zahlk¨orper durch Hinzunehmen von ∞ zu erg¨anzen. 12.8 Konvention (i) Man nennt K = K ∪ {∞} den projektiven Abschluß von K, und vereinbart die Rechenregeln ∞ + a = a + ∞ = ∞ f¨ ur alle a ∈ K,

196

KAPITEL 12. RATIONALE FUNKTIONEN a/0 = ∞a = a∞ = ∞, a/∞ = 0 f¨ ur a 6= 0.

0/0 und andere Operationen mit ∞ sind nicht erkl¨art.

(ii) Im projektiven Abschluß der komplexen Zahlenebene C vereinbart man, daß der unendlich ferne Punkt ∞ zu allen Geraden dazugeh¨ort. Man kann sich den projektiven Abschluss von R als Zusammenbiegen der reellen Zahlengeraden und Zusammenheften der Enden bei ∞ vorstellen. Mathematisch l¨asst sich das pr¨azisieren durch sogen. stereographische Projektion, indem man auf die Zahlengerade einen Einheitskreis mit dem S¨ udpol bei Null legt und die Gerade dann vom Nordpol aus auf den Kreis projiziert. Punkte in der N¨ahe des Nordpols entsprechen dann betragsm¨aßig großen Zahlen und der Nordpol selbst entspricht ∞. F¨ ur die komplexe Zahlenebene betrachtet man analog die stereographische Projektion vom Nordpol einer am S¨ udpol bei 0 angehefteten Einheitskugel. ξ ... ........ ........ .... ... ... ... ... ... ∗ ... . ............................... . . . . . . . . . . . ........ . ..... . . . . ...... . . . . ..... .... .... ..... ..... ..... ..... ... λx ∗ .... ... . . . . ... .. ... . . ... 1−λ .. .. ... . . .. .. . . . ... ... .... ... ... ... 1 ...... .. .... . ... . ... ... 2 .. .. . . ... .. .. . . ... .... ... ... ... ... ... ... ... ... .. .... . . . . . ..... . ..... ..... .... ...... ..... ... ....... ...... ... . ........ .. .......................................................................................................................................................................................................................................................................................................................................................................................... . .... ∗ ... ... ... ... ... ... ... ... ..

∞ 1 •Q

Q

• •

Q



x =

Q• Q

Q

Q

Q

Q

Q

Q

Q Q•

x

0=0

x

Wir erweitern eine rationale Funktion r = p/q, mit Polynomen p, q (q 6= 0), die keine gemeinsame Nullstelle besitzen (falls Z¨ahler und Nenner gemeinsame Nullstellen haben, muß man erst umformen, indem man geeignete Linearfaktoren k¨ urzt), zu einer Funktion auf dem projektiven Abschluß durch   falls deg p < deg q,  0 r(∞) = lim |r(x)| = hk(p)/ hk(q) falls deg p = deg q,  |x|→∞  ∞ falls deg p > deg q und

r(x) = f¨ ur x ∈ K.

(

p(x)/q(x) falls q(x) 6= 0, ∞ sonst (dann ist p(x) 6= 0)

Die einfachsten rationalen Funktionen sind gebrochen lineare Funktionen der Form M :x→

ax + b , cx + d

(ad 6= bc)

(10)

197 mit a, b, c, d ∈ K. Die Bedingung ad 6= bc garantiert (warum?), daß Z¨ahler und Nenner keine gemeinsame Nullstelle haben. Als Abbildungen von K in sich nennt man diese Funktionen auch M¨ obiustransformationen. Die affinen Transformationen x → ax + b (a 6= 0) sind spezielle M¨obiustransformationen mit c = 0, d = 1. 12.9 Satz (i) Die M¨obiustransformationen sind bijektiv und bilden eine Gruppe. (ii) Zu je drei paarweise verschiedenen Punkten x0 , x1 , x∞ ∈ K gibt es genau eine M¨obiustransformation M mit M (∞) = x∞ , M (0) = x0 , M (1) = x1 . Beweis. (i) M (x) = y ist a¨quivalent zu (ax + b) = y(cx + d), also zu (cy − a)x = b − dy und x = (b − dy)/(cy − a); die F¨alle x = −d/c, y = ∞ und x = ∞, y = a/c (f¨ ur c 6= 0) bzw. x = y = ∞ (f¨ ur c = 0) sind dabei eingeschlossen. Also gibt es zu jedem y ∈ K genau ein Urbild x = M −1 (y), und −dy + b M −1 (y) = cy − a

ist selbst eine M¨obiustransformation ((−d)(−a) 6= bc). Das Hintereinanderausf¨ uhren von M und der M¨obiustransformation M ′ mit M ′ (x) =

a′ x + b ′ , c ′ x + d′

(a′ d′ 6= b′ c′ )

ergibt ′



(M ◦ M )(x) = M (M (x)) =

a′ ax+b + b′ cx+d

c′ ax+b + d′ cx+d ′ a (ax + b) + b (cx + d) (a′ a + b′ c)x + (a′ b + b′ d) = ′ = ′ , c (ax + b) + d′ (cx + d) (c a + d′ c)x + (c′ b + d′ d) ′

und ist wegen (a′ a + b′ c)(c′ b + d′ d) − (a′ b + b′ d)(c′ a + d′ c) = a′ ad′ d + b′ cc′ b − a′ bd′ c − b′ dc′ a = (a′ d′ − b′ c′ )(ad − bc) 6= 0 wieder eine M¨obiustransformation. Also bilden die M¨obiustransformationen eine Abbildungsgruppe. (ii) Eindeutigkeit: Angenommen, die geforderten Eigenschaften gelten f¨ ur M1 und M2 statt −1 M . F¨ ur M := M1 ◦ M2 gilt dann M (∞) = ∞, M (0) = 0, M (1) = 1. Mit (10) folgt a/c = ∞, b/d = 0, (a + b)/(c + d) = 1, also c = 0, b = 0, a = d 6= 0. Daher ist M (x) = (dx+0)/(0x+d) = x. Also ist M die Identit¨at und aus der Definition von M folgt M1 = M2 . Existenz: F¨ ur endliche x∞ , x0 und x1 rechnet man leicht nach, daß M (x) := (x∞ x − x0 ξ)/(x − ξ) mit ξ = (x1 − x∞ )/(x1 − x0 ) die geforderten Eigenschaften hat. F¨ ur x∞ = ∞ geht analog M (x) := (x1 − x0 )x + x0 , f¨ ur x0 = ∞ geht M (x) := (x∞ x + x1 − x∞ )/x und f¨ ur x1 = ∞ geht M (x) := (x∞ x − x0 )/(x − 1). ⊓ ⊔

198

KAPITEL 12. RATIONALE FUNKTIONEN

Im projektiven Abschluß der komplexen Zahlenebene bilden M¨obiustransformationen in der Regel Kreise auf Kreise ab. Jedoch erscheinen Geraden als Grenzf¨alle, n¨amlich Kreise mit unendlich großem Radius durch den unendlich fernen Punkt. 12.10 Proposition Sei α, γ ∈ R, β ∈ C und C = {x ∈ C | α|x|2 + Re(βx) + γ = 0}.

(11)

(i) F¨ ur α = 0 ist C eine Gerade, falls b 6= 0; f¨ ur b = 0 = γ ist C = C, und f¨ ur b = 0 6= γ ist C=∅ p β (ii) F¨ ur α 6= 0 ist C ein Kreis um x0 = − 2α mit Radius r = |x0 |2 − γ/α, falls |x0 |2 > γ/α; f¨ ur |x0 |2 = γ/α ist C = {x0 } und f¨ ur |x0 |2 < γ/α ist C = ∅. Beweis. (i) gilt, da x → Re(βx) offenbar linear ist. (ii) gilt, da |x − x0 |2 = r2 gleichwertig ist zu 0 = (x − x0 )(x − x0 ) − r2 = xx − x0 x − xx0 + x0 x0 − r2 = |x|2 − 2 Re(x0 x) + |x0 |2 − r2 . ⊓ ⊔ 12.11 Satz F¨ ur K = C bildet jede M¨obiustransformation Geraden und Kreise der projektiv abgeschlossenen komplexen Zahlenebene auf Geraden oder Kreise ab. Beweis. Das Urbild von (11) unter M besteht aus allen Punkten x mit α|M (x)|2 + Re(βM (x)) + γ = 0. Durch Multiplikation mit |cx + d|2 = (cx + d)(cx + d) wird diese Gleichung zu α|ax + b|2 + Re(β(ax + b)(cx + d)) + γ|cx + d|2 = 0. Ausmultiplizieren (mit |u + v|2 = |u|2 + 2 Re(vu) + |v|2 ) und neu Zusammenfassen ergibt nun (α|a|2 + Re(βac) + γ|c|2 )|x|2 + Re((2ba + βad + βbc + 2dc)x) + (α|b|2 + Re(βbd) + γ|d|2 ) = 0. Das ist wieder eine Gleichung der Form (11). (Das Verhalten am unendlich fernen Punkt muß gesondert betrachtet werden, ist aber konsistent.) ⊓ ⊔ 12.12 Beispiel. (vgl. Satz 15.10(i)) Die M¨obiustransformation q = x−1 bildet die imax+1 gin¨are Zahlengerade Re x = 0 auf den Einheitskreis |q| = 1 ab. Dabei wird der unendlich ferne Punkt der Geraden auf den Punkt q = 1 des Kreises abgebildet. Wir zeigen nun, daß sich – wenigstens im Komplexen – allgemeine rationale Funktionen stets als Produkte gebrochen linearer Funktionen und h¨aufig (aber nicht immer) als Summe gebrochen linearer Funktionen darstellen lassen.

199 Nullstellen und Faktorzerlegung. Als unmittelbare Folgerung der Polynomdivision findet man f¨ ur jede Nullstelle ξ eines Polynoms p die Zerlegung p(x) = (x − ξ)p[ξ, x] in ein Produkt eines Linearfaktors x − ξ und eines Polynoms, dessen Grad um eins geringer ist als der von p. Durch Wiederholung dieses Prozesses der Abdivision von Linearfaktoren ergibt sich das folgende Resultat. 12.13 Proposition (i) Ein Polynom p vom Grad n hat h¨ochstens n verschiedene Nullstellen ξ1 , . . . , ξr . (ii) Es gibt eine eindeutige Zerlegung p(x) = p0 (x)

r Y

k=1

(x − ξk )mk

(12)

mit einem Polynom p0 ohne Nullstellen und nat¨ urlichen Zahlen mk . X (iii) Es gilt mk = deg p − deg p0 .

mk heißt die Vielfachheit der Nullstelle ξk ; Nullstellen der Vielfachheit 1 heißen einfache, die anderen mehrfache Nullstellen. Beweis. (ii) folgt durch wiederholte Abdivision, (iii) aus der Gradformel (1) und (i) dann aus (iii). ⊓ ⊔ Die n¨ahere Untersuchung, welche Polynome in welchen K¨orpern Nullstellen haben, wird im Rahmen der Algebra abgehandelt. Das Besondere am K¨orper der komplexen Zahlen ist, daß sich immer Nullstellen finden lassen, und sich daher p0 zu einer Konstante reduziert. (Man nennt K¨orper mit dieser Eigenschaft algebraisch abgeschlossen.) Um dies zu zeigen, brauchen wir zuerst eine Absch¨atzung der Funktionswerte f¨ ur große x. 12.14 Hilfssatz Ist p(x) = große |x|.

n X k=0

pk xk mit pn 6= 0, so ist |p(x)| > 12 |pn ||x|n f¨ ur gen¨ ugend

Beweis. Es ist

n−1

p(x) X pk = + pn → pn n−k xn x k=0

f¨ ur |x| → ∞, also |p(x)|/|x|n → |pn |, und wegen |pn | > 12 |pn | folgt die Behauptung.

⊓ ⊔

12.15 Satz (Fundamentalsatz der Algebra) (i) Jedes nichtkonstante Polynom hat mindestens eine Nullstelle in K = C. (ii) Jede rationale Funktion r 6= 0 l¨aßt sich u ¨ ber K = C eindeutig in Linearfaktoren zerlegen, r(x) = r0

r Y

k=1

(x − ξk )mk ,

mk ∈ Z, r0 ∈ C \ {0}.

(13)

200

KAPITEL 12. RATIONALE FUNKTIONEN

(iii) Jede rationale Funktion l¨aßt sich u ¨ ber K = R in lineare oder quadratische Faktoren zerlegen. Beweis. (i) p sei ein Polynom vom Grad n > 0, und γ = inf{|p(x)| | x ∈ C}. Nach dem Hilfssatz gibt es ein R > 0 mit |p(x)| > 1 + γ f¨ ur |x| > R; also ist auch γ = inf |p(x)|. Da |x|≤R

|p| stetig ist, nimmt |p(x)| sein Infimum in B[0; R] an (Satz 13.12), etwa bei x = ξ. Also ist |p(ξ)| = γ ≤ |p(x)|

(14)

f¨ ur alle x ∈ B[0; R] und daher f¨ ur alle x ∈ C. Da die (n + 1)te Ableitung von p(x) identisch verschwindet, erh¨alt man durch Taylorentwicklung um ξ die Beziehung p(ξ + h) = p(ξ) + f ′ (ξ)h + · · · +

f (n) (ξ) n h n!

f¨ ur alle h.

Da p nicht konstant ist, muß mindestens eine Ableitung f (k) (ξ) 6= 0 sein. Ist k ≥ 1 der kleinste solche Index, so ist p(ξ + h) = p(ξ) + hk gk (h) (15) mit

f (k) (ξ) f (n) (ξ) n−k + ··· + h . k! n! Insbesondere ist gk (0) 6= 0. F¨ ur h = εh0 und ε > 0 erhalten wir (f¨ ur beliebige h0 ) durch Quadrieren des Betrags von (15) die asymptotische Beziehung gk (h) =

|p(ξ + h)|2 = |p(ξ)|2 + 2 Re(hk gk (h)p(ξ)) + |h|2k |gk (h)|2 = |p(ξ)|2 + 2εk Re(hk0 gk (0)p(ξ)) + O(ε2k ). Wegen (14) muß das f¨ ur beliebig kleine ε > 0 mindestens |p(ξ)|2 sein, also Re hk0 gk (0)p(ξ) ≥ 0.

(16)

F¨ ur p(ξ) 6= 0 ist aber im Widerspruch dazu hk0 gk (0)p(ξ) = −1, wenn man h0 =

−1

gk (0)p(ξ)

!1/k

(17)

setzt. Daher muß p(ξ) = 0 sein, d.h. ξ ist Nullstelle von p. (ii) folgt f¨ ur Polynome aus (i) und Proposition 12.13(ii), und durch Quotientenbildung f¨ ur rationale Funktionen. ur beliebige (iii) p(x) sei ein Polynom mit reellen Koeffizienten. Dann ist p(x) = p(x) f¨ komplexe Argumente x. Daher ist mit ξ auch ξ eine Nullstelle von x. Das Produkt der zugeh¨origen Linearfaktoren ist ein quadratisches Polynom mit reellen Koeffizienten: (x − ξ)(x − ξ) = x2 − (ξ + ξ)x + ξξ = x2 − 2 Re ξx + |ξ|2 .

(18)

201 Gleichzeitige Abdivision der beiden Linearfaktoren liefert also wieder ein Polynom mit reellen Koeffizienten. Man sieht daher, daß s¨amtliche nicht reelle Nullstellen paarweise konjugiert komplex auftreten, und die Vielfachheiten jedes solchen Paars sind dieselben. F¨ ur eine rationale Funktion mit reellen Koeffizienten gilt das nat¨ urlich f¨ ur Z¨ahler und Nenner. In der Faktorisierung (13) kann man daher konjugiert komplexe Linearfaktoren stets zu reellen quadratischen Faktoren zusammenfassen. ⊓ ⊔ 12.16 Beispiel. Sei r(x) = (x5 − x4 + 2x3 − 2x2 + x − 1)/(2x + 2). Der Z¨ahler l¨aßt sich faktorisieren als (x − 1)(x4 + 2x2 + 1) = (x − 1)(x2 + 1)2 = (x − 1)(x − i)2 (x + i)2 , und der Nenner als 2(x + 1). Daher ist 1 r(x) = (x − 1)(x + 1)−1 (x − i)2 (x + i)2 2 die Linearfaktorzerlegung von r, und 1 r(x) = (x − 1)(x + 1)−1 (x2 + 1)2 2 die entsprechende reelle Faktorisierung in lineare und quadratische Faktoren. Interpolation und Partialbruchzerlegung 12.17 Hilfssatz Ist ω(x) =

n Y

k=0

(x − xk ), so gelten f¨ ur l = 0, . . . , n die Formeln Y (x − xk ),

ω[xl , x] =

k6=l

ω ′ (xl ) =

Y (xl − xk ) 6= 0. k6=l

Beweis. Die erste Formel ergibt sich wegen ω(xl ) = 0 aus ω(x) − ω(xl ) = ω(x) = (x − Q xl ) (x − xk ), und die zweite mit ω ′ (xl ) = ω[xl , xl ]. ⊓ ⊔ k6=l

12.18 Satz (Lagrange-Interpolation) F¨ ur paarweise verschiedene xk und beliebige zugeh¨orige Funktionswerte fk (k = 0, . . . , n) gibt es genau ein Polynom p vom Grad ≤ n mit der Eigenschaft p(xk ) = fk n¨amlich p(x) =

n X l=0

f¨ ur k = 0, . . . , n,

(19)

fl ′ ω (x

(20)

l)

ω[xl , x].

202

KAPITEL 12. RATIONALE FUNKTIONEN

Man nennt das durch (19) eindeutig bestimmte Polynom vom Grad ≤ n das Interpolationspolynom zu den Stu ¨ tzstellen (xk , fk ) (k = 0, . . . , n). Beweis. Nach dem Hilfssatz sind die ω[xl , x] Polynome vom Grad n mit ω[xl , xk ] = 0 f¨ ur l 6= k. Als Linearkombination der ω[xl , x] ist p ein Polynom vom Grad ≤ n und es gilt fk p(xk ) = ′ ω[xk , xk ] = fk , da in der Summe die Terme mit l 6= k verschwinden. Daher ω (xk ) gilt (19). W¨are q(x) ein anderes Polynom vom Grad ≤ n mit q(xk ) = fk f¨ ur alle k, so w¨are p − q ein nichtverschwindendes Polynom vom Grad ≤ n mit n + 1 Nullstellen xk (k = 0, . . . , n) im Widerspruch zu Proposition 12.13(i). Also ist p das einzige Polynom mit (19). ⊓ ⊔ Aus der Interpolationsformel erh¨alt man nun leicht eine Summendarstellung rationaler Funktionen. 12.19 Satz (Partialbruchzerlegung, einfacher Fall) Ist deg p < deg q = n + 1 und hat q lauter verschiedene Nullstellen xk (k = 0, . . . , n), so ist n

p(x) X p(xl )/q ′ (xl ) = . q(x) x − x l l=0 Beweis. Nach dem Fundamentalsatz ist q(x) = q0

n Y

(21)

(x−xk ) = q0 ω(x) mit einer Konstanten

k=0

q0 . Dividiert man in (20) durch ω(x) und benutzt (19), so findet man die Formel n X f (xl )/ω ′ (xl ) l=0

x − xl

, und wegen q ′ (x) = q0 ω ′ (x) folgt (21).

p(x) = ω(x) ⊓ ⊔

Durch Integration erh¨alt man: 12.20 Folgerung Unter denselben Voraussetzungen ist Z n X p(x) p(xl ) dx = log |x − xl | + C. q(x) q ′ (xl ) l=0 Die Darstellung (21) der rationalen Funktion p/q als Summe gebrochen-linearer Funktionen nennt man eine Partialbruchzerlegung von p/q. Ist deg p ≥ deg q, so kann man durch Polynomdivision Polynome Q und r mit p(x) = q(x)Q(x) + r(x) und deg r < deg q bestimmen. Dann ist r(x) p(x) = Q(x) + . (22) q(x) q(x) r(x) Hat q nur einfache komplexe Nullstellen, so kann man q(x) mit dem obigen Satz in Partialbr¨ uche zerlegen. Falls aber q mehrfache Nullstellen hat, kann es keine Darstellung der Form n r(x) X al = mehr geben (warum nicht?). Jedoch gibt es stets eine etwas allgemeinere q(x) x − x l l=0 Summendarstellung, auf deren Beweis wir verzichten:

203 12.21 Satz (Partialbruchzerlegung) Hat q genau r komplexe Nullstellen ξk mit den Vielfachheiten mk , so gibt es eine eindeutige Darstellung r X p(x) pl (x) = Q(x) + (23) q(x) (x − ξl )ml l=1 mit einem Polynom Q vom Grad max(−1, deg p−deg q) und Polynomen pl vom Grad < ml . Man beachte, daß sich mit pl (x) =

m l −1 X k=0

akl (x − ξl )k

(24)

der Partialbruch m l −1 X pl (x) akl = (x − ξl )ml (x − ξl )ml −k k=0

als Summe noch einfacherer Partialbr¨ uche schreiben l¨aßt. Um die Partialbruchzerlegung im Fall mehrfacher Nullstellen zu berechnen, benutzt man (22) und bestimmt anschließend die Partialbruchzerlegung von r

r(x) X pl (x) = , q(x) (x − ξl )ml l=1 indem man in die ¨aquivalente Formel r(x) =

r X l=1

pl (x)

q(x) . (x − ξl )ml

f¨ ur die Polynome pl den Ansatz (24) einsetzt. Durch Ausmultiplizieren und Koeffizientenvergleich erh¨alt man dann ein lineares Gleichungssystem f¨ ur die unbekannten Koeffizienten akl . 12.22 Beispiele. (i) Sei p(x) = x2 + 1 und q(x) = 2x3 − 2x. Wegen q(x) = 2(x + 1)x(x − 1) hat q die einfachen Nullstellen xl = −1, 0, 1, und es ist p(xl ) = 2, 1, 2, q ′ (xl ) = 6x2l − 2 = 4, −2, 4. Nach Satz 12.19 ist also 2/4 1/(−2) 2/4 0.5 0.5 0.5 p(x) = + + = − + , q(x) x+1 x x−1 x+1 x x−1 und eine Probe (Ausdruck auf Hauptnenner bringen) best¨atigt dies. (ii) Sei p(x) = x4 und q(x) = x3 − x2 − x + 1. Um die Partialbruchzerlegung zu bekommen, zerlegen wir q(x) = (x + 1)(x − 1)2 ; wegen der doppelten Nullstelle m¨ ussen wir den Ansatz p(x) a b + c(x − 1) = Q(x) + + q(x) x+1 (x − 1)2

204

KAPITEL 12. RATIONALE FUNKTIONEN

mit zu bestimmenden Koeffizienten a, b, c machen. Nach Beispiel 12.3(i) ergibt sich durch Polynomdivision Q(x) = x + 1, r(x) = 2x2 − 1. Multiplikation von

mit q(x) ergibt nun

r(x) a b + c(x − 1) = + q(x) x+1 (x − 1)2

2x2 − 1 = a(x − 1)2 + (b + c(x − 1))(x + 1) = (a + c)x2 + (b − 2a)x + (a + b − c). Koeffizientenvergleich liefert die Bedingungen a + c = 2, b − 2a = 0, a + b − c = −1, die durch a = 0.25, b = 0.5, c = 1.75 erf¨ ullt werden. Also ist 0.25 0.5 + 1.75(x − 1) p(x) = x+1+ + q(x) x+1 (x − 1)2 1.75 0.5 0.25 + + = x+1+ x + 1 (x − 1) (x − 1)2

die gesuchte Partialbruchzerlegung, wie eine Probe best¨atigt.

Die Partialbuchzerlegung (23) existiert nur, wenn der Nenner sich in Linearfaktoren zerlegen l¨aßt. Das ist im Komplexen stets der Fall. F¨ ur rationale Funktionen mit reellen Koeffizienten kann es jedoch vorkommen, daß der Nenner komplexe Nullstellen hat und die Partialbruchzerlegung wird dann selbst komplex. Man kann in diesem Fall eine reelle Partialbruchzerlegung finden, indem man benutzt, daß komplexe Nullstellen in konjugiert komplexen Paaren ξ, ξ auftreten. Die Partialbruchzerlegung (23) enth¨alt dann zwei konjugiert komplexe Summanden, deren Summe sich mit (18) reell darstellen l¨aßt, p(x) p(x) p(x)(x − ξ)m + p(x)(x − ξ)m + = (x − ξ)m (x − ξ)m (x − ξ)m (x − ξ)m pξ (x) . = 2 (x − 2 Re ξx + |ξ|2 )m

(25)

Der Z¨ahler pξ (x) = p(x)(x − ξ)m + p(x)(x − ξ)m hat tats¨achlich reelle Koeffizienten, da er sich f¨ ur reelle x beim Konjugieren nicht ¨andert. Der Grad von pξ ist offenbar h¨ochstens 2m − 1, also wieder kleiner als der Nennergrad. Man kann also reelle rationale Funktionen stets als Summe von Termen pl (x)/ql (x)m mit deg ql ≤ 2, deg pl < m deg ql schreiben. Wenn man will, kann man auch weiter zerlegen als Summe von Termen xk /ql (x)m mit deg ql ≤ 2, k < m deg ql . Statt mit komplexer Zwischenrechnung kann man die reelle Version der Partialbruchzerlegung nat¨ urlich auch analog zu Beispiel 12.22(ii) durch einen Ansatz mit unbestimmten Koeffizienten und anschließenden Koeffizientenvergleich bestimmen. Pad´ e-Approximation und Konvergenzbeschleunigung Zur Approximation einer Funktion f kennen wir bisher vor allem die Taylorentwicklung, die f in der N¨ahe eines Punktes durch ein Polynom approximiert. Solche Approximationen sind oft sehr n¨ utzliche lokale Approximationen, aber als globale Approximationen u ¨ber einen gr¨oßeren Bereich sind sie meist unbrauchbar. Rationale Funktionen haben dagegen oft ausgezeichnete globale Approximationseigenschaften. Eine systematische Theorie geht weit u ¨ber den Rahmen einer Einf¨ uhrung hinaus; jedoch kann man anhand der sogen. Pad´e-Approximation einen interessanten Einblick in die M¨oglichkeiten rationaler Approximation bekommen.

205 12.23 Definition Eine Funktion rmn heißt (m, n)-Pad´ e-Approximation einer Funktion f : D ⊂ K → K an der Stelle x0 ∈ D, wenn sich rmn als Quotient eines Polynoms p vom Grad ≤ m und eines Polynoms q vom Grad ≤ n schreiben l¨aßt und die Beziehung f (x) = rmn (x) + O((x − x0 )m+n+1 )

(26)

gilt. Offenbar ist jede bei (x−x0 )m abgebrochene Taylorentwicklung eine (m, 0)-Pad´e-Approximation. p 12.24 Beispiel. Die durch f (x) = (1 + 0.5x)/(1 + 2x) definierte Funktion f hat die Taylorreihe 39 267 3 7563 4 3 x + x − ... 1 − x + x2 − 4 32 128 2048 mit dem Konvergenzradius 21 . (Pol bei − 12 !) Man kann also nicht erwarten, daß die abgebrochene Taylorentwocklung die Funktion f¨ ur |x| ≥ 12 sinnvoll approximiert.

1

1 p(x)

p(x)

0.9

0.9

0.8

0.8

0.7

0.7 r(x)

0.6 0.5 0

0.6

f(x) 2

4

0.5 0

6

f(x) 2

r(x) 4

6

Abbildung 12.1: Abgebrochene Taylorreihe p(x) und Pad´e-Approximation r(x) (links Grad 2 bzw. (1, 1)-Approximation, rechts Grad 4 bzw. (2, 2)-Approximation) Wie die Abbildung zeigt, sind die (1, 1)- und (2, 2)-Pad´e-Approximationen r11 (x) =

8 + 7x , 8 + 13x

r22 =

64 + 136x + 61x2 64 + 184x + 121x2

dagegen weit brauchbarere Approximationen. Die Berechnung der Taylorentwicklung geschieht nat¨ urlich u ¨ber die Koeffizienten, die man aus den h¨oheren Ableitungen an der Stelle x0 bekommt. Interessanterweise gen¨ ugt genau dieselbe Information, um die entsprechenden Pad´e-Approximationen (aus den Gleichungen (31) und (30) des nachfolgenden Beweises) zu berechnen. 12.25 Satz Ist f (x) =

m+n X k=0

ck (x − x0 )k + O((x − x0 )m+n+1 )

(27)

206

KAPITEL 12. RATIONALE FUNKTIONEN

und ist (mit ck = 0 f¨ ur k < 0) die Matrix  cm   cm+1 Cm =   ..  . cm+n−1

cm−1 . . . ... cm ... ... ...

cm+1

 cm−n+1  ..  .   cm−1  cm

(28)

regul¨ar, so gibt es durch c0 , . . . , cm+n eindeutig bestimmte Polynome p vom Grad ≤ m und q vom Grad ≤ n mit q(x0 ) = 1 und p(x) + O((x − x0 )m+n+1 ). q(x)

f (x) =

Beweis. Sei pm (x) =

m X l=0

l

pl (x − x0 ) und qn (x) =

n X l=0

(29)

ql (x − x0 )l . Wegen q0 = q(x0 ) = 1 ist

(29) gleichwertig zu p(x) = f (x)q(x) + O((x − x0 )m+n+1 ), also wegen (27) und ck = 0 f¨ ur k < 0 zu m+n n X X p(x) = ck (x − x0 )k ql (x − x0 )l + O((x − x0 )m+n+1 ) k=0X l=0 = ck ql (x − x0 )k+l + O((x − x0 )m+n+1 ) k≤m+n, l≤n ! m+n n X X = cj−l ql (x − x0 )j + O((x − x0 )m+n+1 ). j=0

l=0

Diese Aussage gilt aber genau dann, wenn pj =

n X

cj−l ql

(j = 0, . . . , m)

(30)

(j = m + 1, . . . , m + n).

(31)

l=0

und 0=

n X

cj−l ql

l=0

Wegen q0 = 1 ist (31) gleichwertig zum linearen Gleichungssystem n X l=1

cm+k−l ql = −cm+k

(k = 1, . . . , n),

das wegen der Voraussetzung eindeutig nach den ql aufl¨osbar ist. Die pj ergeben sich dann eindeutig aus (30). Die Koeffizienten von p und q sind also eindeutig bestimmt und h¨angen nur von den ck ab. ⊓ ⊔ Matrizen der Form (28) heißen Toeplitz-Matrizen; sie spielen eine wichtige Rolle in der Nachrichtentechnik (Signalverarbeitung). Die Pad´e-Approximation eignet sich auch, um langsam konvergente unendliche Reihen auszuwerten.

207 12.26 Beispiel. Aus den ersten 7 Summanden der nur bedingt konvergenten Reihe s=

∞ X (−1)k−1 k=1

k

bekommt man s ≈ 1 − 1/2 + 1/3 − 1/4 + 1/5 − 1/6 + 1/7 = 0.7595238 . . ., eine sehr schlechte Approximation an den exakten Wert s = log 2 = 0.6931471 . . .. Um zu sehen, daß die 7 Summanden betr¨achtlich mehr Information enthalten, berechnen wir die (3, 3)-Pad´eApproximation von f (x) = 1 − x/2 + x2 /3 − x3 /4 + x4 /5 − x5 /6 + x6 /7 + O(x7 ). Das Gleichungssystem (31) wird zu     −1/4 1/3 −1/2 −1/5     1/3  q =  1/6   1/5 −1/4 −1/6 1/5 −1/4 −1/7 und liefert q = (12/7, 6/7, 4/35)T , also

q(x) = 1 +

6 4 12 x + x2 + x3 . 7 7 35

p(x) = 1 +

17 1 1 3 x + x2 + x; 14 3 140

(30) ergibt dann

und erhalten den viel besseren Wert s = f (1) ≈

1073/420 1073 p(1) = = = 0.6931524 . . . . q(1) 129/35 1548

208

KAPITEL 12. RATIONALE FUNKTIONEN

Kapitel 13 Topologie Topologie ist die Theorie der aus dem Umgebungsbegriff abgeleiteten Definitionen und S¨atze. Dazu geh¨ort in gewisser Weise auch schon das bisher in normierten R¨aumen Gesagte. Im mathematischen Sprachgebrauch ordnet man jedoch unter Topologie vor allem die Aussagen ein, deren G¨ ultigkeit von zus¨atzlichen topologischen Eigenschaften abh¨angt. Von diesen hat bisher nur der Begriff des Gebiets eine Rolle gespielt. Jetzt werden wir weitere topologische Begriffe nutzen lernen: Rand, offen, abgeschlossen, kompakt, zusammenh¨angend. Die Verwendung dieser Begriffe erlaubt uns in verschiedener Weise, durch Approximation Existenzbeweise zu f¨ uhren. 13.1 Definition Ω sei Hausdorffraum, D Teilmenge von Ω. (i) x ∈ Ω heißt Randpunkt von D, falls es in jeder Umgebung von x Punkte aus D und Punkte nicht aus D gibt. Der Rand ∂D von D ist die Menge aller Randpunkte von D. (ii) D heißt offen, falls D keinen seiner Randpunkte enth¨alt, und abgeschlossen, falls D alle seine Randpunkte enth¨alt. Die Menge D := D ∪ ∂D heißt die Hu ¨ lle von D, und die Menge int(D) := D \ ∂D



(auch als D bezeichnet)

heißt das Innere von D (engl. interior). Eine Teilmenge D0 von D heißt dicht in D, falls D0 = D. Beispielsweise ist Q dicht in R. Die Menge R2+ = {x ∈ R2 |x1 ≥ 0, x2 ≥ 0} ist abgeschlossen relativ zu Ω = R2 , mit Rand ∂R2+ = {x ∈ R2 |x1 = 0, x2 ≥ 0 oder 2 x1 > 0, x2 = 0} und Innerem int(R+ 2 ) = {x ∈ R |x1 > 0, x2 > 0} . 13.2 Proposition (i) D sei Teilmenge von Ω. Dann sind ∂D und D abgeschlossen, und int D ist offen. 209

210

KAPITEL 13. TOPOLOGIE D

∂D

int D

D

(ii) D ist genau dann offen, wenn Ω \ D abgeschlossen ist. Außerdem ist ∂D = ∂(Ω \ D) = D ∩ Ω \ D. (iii) Durchschnitt und Vereinigung von endlich vielen abgeschlossenen (bzw. offenen) Mengen sind abgeschlossen (bzw. offen). (iv) Der Durchschnitt von beliebig vielen abgeschlossenen Mengen ist abgeschlossen; die Vereinigung von beliebig vielen offenen Mengen ist offen. (v) ∅ und Ω sind offen und abgeschlossen. ⊓ ⊔

Beweis. wird nicht gegeben; s. z.B. Forster II,§1. ⊓ ⊔

13.3 Bemerkung. Der Durchschnitt beliebig vieler offener Mengen braucht nicht offen zu sein: \  1 1 − , {0} = ist nicht offen. l l l≥1 Die Vereinigung beliebig vieler abgeschlossener Mengen braucht nicht abgeschlossen zu sein:  [  1 1 −1 + , 1 − ist nicht abgeschlossen. ] − 1, 1[= l l l≥1

13.4 Proposition Ist f : Ω ⊆ V → R stetig, so ist D0 := {x ∈ Ω|f (x) < γ} D1 := {x ∈ Ω|f (x) ≤ γ} D2 := {x ∈ Ω|f (x) = γ}

offen, abgeschlossen, abgeschlossen.

Beweis. ugend kleinen Umgebung von (i) Ist x0 ∈ D0 , so ist ǫ := 21 (γ − f (x0 )) > 0, und in einer gen¨ x0 ist |f (x) − f (x0 )| ≤ ǫ, also f (x) ≤ f (x0 ) + ǫ = γ − ǫ < γ. Also enth¨alt D0 eine Umgebung von x0 , d.h. x0 ist kein Randpunkt. Daher enth¨alt D0 keine Randpunkte, ist also offen. (ii) D1 ist das Komplement der nach (i) offenen Menge {x ∈ Ω|f (x) > γ} = {x ∈ Ω| − f (x) < −γ}, also ist D1 abgeschlossen.

211 (iii) D2 ist der Durchschnitt der nach (ii) abgeschlossenen Mengen D1 und {x ∈ Ω|f (x) ≥ γ} = {x ∈ Ω| − f (x) ≤ −γ}, ist also selbst abgeschlossen. ⊓ ⊔ ⊓ ⊔

13.5 Bemerkung. Normalerweise ist ∂D0 = ∂D1 = D2 , D0 = D1 , intD1 = D0 , aber in pathologischen F¨allen (z.B. f (x) = const braucht das nicht der Fall zu sein. 13.6 Proposition Die folgenden Aussagen sind gleichwertig : (i) D ist abgeschlossen. (ii) Ist x≥k eine Folge aus D mit Grenzwert x∗ ∈ Ω, so ist x∗ ∈ D. (iii) Ist x∗ ∈ Ω ein H¨aufungspunkt der Folge x≥k aus D, so ist x∗ ∈ D. Beweis. (i) ⇒ (ii): Angenommen x∗ 6∈ D. Dann liegen in jeder Umgebung von x∗ Folgenglieder xl ∈ D und der Punkt x∗ ∈ / D, also ist x∗ Randpunkt. Da D abgeschlossen ist, enth¨alt es alle Randpunkte; also ist x∗ ∈ D, Widerspruch. (ii) ⇒ (iii): W¨ahle eine konvergente Teilfolge mit Limes x∗ ; nach (ii) folgt x∗ ∈ D. (iii) ⇒ (i): Wir m¨ ussen zeigen, daß D alle seine Randpunkte enth¨alt. Sei x ∈ ∂D. Dann enth¨alt die Umgebung B[x; 2−l ] (wie jede Umgebung) einen Punkt xl ∈ D, und nach Konstruktion ist kxl − xk ≤ 2−l → 0, also x = lim xl . Daher ist x H¨aufungspunkt einer Folge

aus D und es folgt x ∈ D. ⊓ ⊔

l→∞

⊓ ⊔

13.7 Definition Eine Menge D heißt kompakt, wenn man aus jeder Familie Ul (l ∈ L) von offenen Mengen Ul mit der Eigenschaft [ D⊆ Ul (1) l∈L

endlich viele Mengen Ulj (j = 1, . . . , m) so ausw¨ahlen kann, daß immer noch [ D⊆ Ulj

(2)

j=1:m

¨ gilt. Man sagt daf¨ ur kurz: Jede Uberdeckung (1) von D mit offenen Mengen Ul (oder ¨ noch k¨ urzer: Jede offene Uberdeckung von D) enth¨alt eine endliche Teil¨ uberdeckung.

212

KAPITEL 13. TOPOLOGIE

13.8 Bemerkung. Kompakte Mengen sind das kontinuierliche Analogon von endlichen Mengen. Man kann sich die Mengen Ul zun¨achst als offene ǫ-Umgebungen denken, und ǫ etwa als die Genauigkeit, mit der die Koordinaten eines Punktes gemessen werden k¨onnen. Innerhalb jeder vorgegebenen Genauigkeit reichen endlich viele Punkte schon aus, um ganz D zu ”beschreiben”; nat¨ urlich braucht man umso mehr Punkte (großes m in (2)), je kleiner ǫ ist. Der Grund daf¨ ur, daß man nur offene Mengen zul¨aßt, liegt darin, daß man Situationen ausschließen will, wo ”asymptotische” oder ”singul¨are” Ph¨anomene passieren k¨onnen: z.B. im Unendlichen oder am Rand eines offenen Intervalls, wo stetige Funktionen unbeschr¨ankt werden k¨onnen. 13.9 Beispiele. (i) Im Rn ist jede abgeschlossene und beschr¨ankte Menge kompakt. Dies zu zeigen ist nicht ganz leicht und wird auf sp¨ater (Satz 13.19) verschoben. ¨ (ii) Die Zahlengerade D = R ist nicht kompakt, da man aus der Uberdeckung mit den offenen Intervallen ]l − 1, l + 1[ (l ∈ Z) gar keine echte Teil¨ uberdeckung ausw¨ahlen kann, erst recht also keine endliche:

(iii) Auch das offene Intervall D =]0, 1[ ist nicht kompakt. Zum Beispiel u ¨berdecken die 1 1 ¨ offenen Mengen Ul :=] 3l , l [ das ganze Intervall. Man kann aus dieser Uberdeckung zwar ¨ einige Mengen weglassen, z.B. U3 , U4 , U6 , U7 , . . . aber endlich viele Ul reichen zur Uberdeckung nicht aus, weil man damit nicht beliebig nahe an 0 herankommt: Ist k der gr¨oßte 1 ] in keinem der ausgew¨ahlten Ul . Man sieht ausgew¨ahlte Index, so liegen die Punkte ∈ ]0, 3k an diesem Gegenbeispiel auch, daß es n¨otig ist, offene Mengen beliebig kleiner ”L¨ange” in ¨ der Uberdeckung zuzulassen. Physikalisch entspricht das der Notwendigkeit, beim Herantasten an eine Singularit¨at (z.B. absoluter Nullpunkt, Urknall) in immer kleineren Abst¨anden vorgehen zu m¨ ussen. Zun¨achst zeigen wir, daß kompakte Mengen trotz ihrer umst¨andlichen Definition sehr n¨ utzliche Eigenschaften haben. 13.10 Satz F¨ ur kompakte Mengen D ⊆ V gilt: (i) Jede Folge aus D hat einen H¨aufungspunkt in D. (ii) D ist abgeschlossen und beschr¨ankt. (Nichtabgeschlossene oder unbeschr¨ankte Mengen sind also bestimmt nicht kompakt.) Beweis. (i) Angenommen, die Folge x≥k aus D habe keinen H¨aufungspunkt in D. Zu jedem x ∈ D gibt es dann eine Umgebung, die nur endlich viele Folgenglieder enth¨alt, also (nach Verkleinern) auch eine offene Umgebung Ux , die h¨ochstens ein Folgenglied enth¨alt. Die Ux (x ∈ D) u ¨berdecken D; es gibt also endlich viele davon, etwa U (1) , . . . , U (m) , die D schon u ¨berdecken. Da jedes U (l) nur ein Folgenglied enth¨alt, alle Folgenglieder aber in D

213 liegen, nimmt die Folge nur endlich viele Werte an. Mindestens einer dieser Werte muß dann unendlich oft vorkommen, w¨are also ein H¨aufungspunkt, Widerspruch. Also muß ein H¨aufungspunkt in D existieren. (ii) Sei x0 ∈ / D. Zu jedem x ∈ D gibt es Umgebungen Ux von x und Vx von x0 mit Ux ∩ Vx = ∅ (Satz 5.8 (H5)), und wir k¨onnen (durch Verkleinern) Ux , Vx als offen w¨ahlen. Die Ux (x ∈ D) u ¨berdecken D; es gibt also endlich viele davon, etwa Ux1 , . . . , Uxm , die D schon u ¨berdecken. Der Durchschnitt V der offenen Mengen Vx1 , . . . , Vxm ist offen und enth¨alt nach Konstruktion x0 ; also ist V eine Umgebung von x0 . Da jedes Vxl zu Uxl disjunkt ist, ist V zu deren Vereinigung disjunkt, und da diese D enth¨alt, enth¨alt V keinen Punkt von D. Also ist x0 kein Randpunkt von D. Da x0 ∈ / D beliebig war, m¨ ussen alle Randpunkte zu D geh¨oren, d.h. D ist abgeschlossen. W¨are D nicht beschr¨ankt, so g¨abe es zu jedem l ∈ N ein xl ∈ D mit kxl k ≥ l. Die so konstruierte Folge x≥1 hat wegen (i) einen H¨aufungspunkt x∗ . Wegen kxl − x∗ k ≥ kxl k − kx∗ k ≥ l −kx∗ k enth¨alt die Umgebung B[x∗ ; 1] aber nur endlich viele Folgenglieder, n¨amlich h¨ochstens die mit l ≤ kx∗ k + 1, Widerspruch. Also ist D beschr¨ankt. ⊓ ⊔ ⊓ ⊔

13.11 Proposition Sei f ∈ F(V, W ) in Ω ⊆ V stetig. (i) Ist U ⊆ f (Ω) offen relativ zu f (Ω), so ist f −1 (U ) = {x ∈ Ω|f (x) ∈ U } offen relativ zu Ω. (ii) Ist U ⊆ f (Ω) abgeschlossen, so ist f −1 (U ) abgeschlossen. iii) Ist D ⊆ Ω kompakt, so ist f (D) = {f (x)|x ∈ D} kompakt. (Merkregel: f stetig ⇒ f −1 (offen)=offen, f −1 (abgeschlossen)=abgeschlossen, f (kompakt)=kompakt.) Beweis. (i) Sei x ∈ f −1 (U ). Dann ist f (x) ∈ U , und da U offen ist, ist U eine Umgebung von f (x). Nach Definition der Stetigkeit gibt es also eine Umgebung U ′ von x (relativ zu Ω) mit f (x) ∈ U f¨ ur alle x ∈ U ′ . Dies bedeutet aber U ′ ∈ f −1 (U ). Also enth¨alt f −1 (U ) eine Umgebung von x. Da x ∈ f −1 (U ) beliebig war, kann f −1 (U ) keine Randpunkte enthalten, ist also offen. (ii) Nach Proposition 13.2 (ii) ist U ′ := f (Ω) \ U offen relativ zu f (Ω), nach (i) also f −1 (U ′ ) = Ω \ f −1 (U ) offen relativ zu Ω, wieder nach 13.2 (ii) also f −1 (U ) abgeschlossen. ¨ (iii) Ul (l ∈ L) sei eine beliebige offene Uberdeckung von f (D). Wir m¨ ussen eine endliche Teil¨ uberdeckung finden. Wegen (i) ist Ul′ := f −1 (Ul ) offen (relativ zu Ω). Ist x ∈ D, so ist ¨ f (x) ∈ f (D) in einem Ul enthalten, also x ∈ Ul′ ; daher bilden die Ul′ eine offene Uberdeckung von D. Da D kompakt ist, kann man endlich viele Ul′j (j = 1, . . . , m) ausw¨ahlen, die D u ¨berdecken; die Ulj (j = 1, . . . , m) u ¨berdecken dann f (D). Also ist f (D) kompakt. ⊓ ⊔

214

KAPITEL 13. TOPOLOGIE ⊓ ⊔

13.12 Satz f ∈ F(V, R) sei in der kompakten Menge D stetig. Dann gibt es Punkte x∗ , x∗ ∈ D mit f (x∗ ) ≤ f (x) ≤ f (x∗ ) f¨ ur alle x ∈ D. (3)

Ist x∗ ∈ int(D) (bzw. x∗ ∈ int(D) und ist f in int(D) stetig differenzierbar, so gilt außerdem f ′ (x∗ ) = 0 (bzw. f ′ (x∗ ) = 0).

(4)

Beweis. (i) Nach Proposition 13.11(ii) ist f (D) kompakt, nach Satz 13.10(ii) also beschr¨ankt. Daher existiert α∗ := inf f (x). Wir w¨ahlen xl ∈ D so, daß x∈D

f (xl ) ≤ α∗ + 2−l f¨ ur l = 0, 1, 2, . . .

(5)

gilt. Die Folge der xl hat wegen der Kompaktheit von D nach Satz 13.10(i) einen H¨aufungspunkt x∗ ∈ D , und durch Grenz¨ ubergang in (5) – f¨ ur eine gegen x∗ konvergente Teilfolge – folgt f (x∗ ) ≤ α∗ . Also ist f (x∗ ) ≤ f (x) f¨ ur alle x ∈ D. Analog zeigt man die Existenz von x∗ ∈ D mit f (x) ≤ f (x∗ ) f¨ ur alle x ∈ D. (ii) f sei in int(D) stetig differenzierbar und x∗ ∈ int(D). Ist f ′ (x∗ ) 6= 0, so ist der Vektor h := ∇f (x∗ ) 6= 0 und β := f ′ (x∗ )h = h · h = khk22 > 0. F¨ ur gen¨ ugend kleine ǫ > 0 ist x∗ − ǫh ∈ int(D) (da int(D) offen ist), also f (x∗ − ǫh) = f (x∗ ) − f ′ (x∗ )ǫh + o(ǫ) = f (x∗ ) − βǫ + o(ǫ). F¨ ur gen¨ ugend kleine ǫ > 0 ist das Fehlerglied ≤ β2 ǫ, also folgt f (x∗ − ǫh) ≤ f (x∗ ) − βǫ +

β β ǫ ≤ f (x∗ ) − ǫ < f (x∗ ). 2 2

Dies widerspricht (3). Also muß f ′ (x∗ ) = 0 sein. Ebenso zeigt man f ′ (x∗ ) = 0, falls x∗ ∈ int(D). ⊓ ⊔ ⊓ ⊔

13.13 Definition Sei f ∈ F(V, R), D ⊆ Def(f ). (i) Man sagt, f hat an der Stelle x∗ ein (globales) Minimum bez. D, falls x∗ ∈ D und f (x∗ ) ≤ f (x) f¨ ur alle x ∈ D, und ein lokales Minimum, falls f dort ein Minimum bez. einer Umgebung von x∗ (relativ zu Def(f )) hat.

215 (ii) Man sagt, f hat an der Stelle x∗ ein (globales) Maximum bez. D, falls x∗ ∈ D und f (x) ≤ f (x∗ ) f¨ ur alle x ∈ D, und ein lokales Maximum, falls f dort ein Maximum bez. einer Umgebung von x∗ (relativ zu Def(f )) hat. (iii) x heißt Extremwert von f , falls x lokales Maximum oder lokales Minimum von f ist, und station¨ arer Punkt (oder kritischer Punkt) von f , falls f in einer Umgebung von x stetig differenzierbar ist und f ′ (x) = 0 gilt. Ein station¨arer Punkt, der kein Extremwert ist, heißt Sattelpunkt. (iv) Sei f ∈ F(V, W ). Eine Nullstelle von f ist ein Punkt x∗ ∈ Def(F ) mit F (x∗ ) = 0. Man kann den vorigen Satz nun so formulieren: 13.14 Satz (i) Jede in einer kompakten Menge D stetige reellwertige Funktion nimmt dort ihr Minimum und Maximum an. (ii) Ist f in einer Umgebung eines Extremwerts x∗ stetig differenzierbar, so ist x∗ eine Nullstelle des Gradienten, d.h. ein station¨arer Punkt. ⊓ ⊔

13.15 Proposition In Rn ist jede abgeschlossene Kugel kompakt.

¨ Beweis. Angenommen D := B[xo ; r] w¨are nicht kompakt. Dann gibt es eine offene Uberdeckung Ul (l ∈ L) von D, die keine endliche Teil¨ uberdeckung von D enth¨alt. Wir konstruieren zun¨achst eine Folge x≥0 derart, daß jede Kugel B[xj ; 2−j r] in D liegt und sich nicht durch endlich viele Ul u ur j = 0 schon der Fall ist, neh¨berdecken l¨aßt. Da dies f¨ men wir an, daß wir ein solches xj haben, und konstruieren xj+1 wie folgt: Wir halbieren den W¨ urfel Q0 := B[xj ; 2−j ] in der ersten Komponente. Da sich Q0 nicht durch endlich viele Ul u ur eine der beiden H¨alften von Q0 ; diese nennen wir Q1 . ¨berdecken l¨aßt, gilt dasselbe f¨ Q0 Q2 Xj+1 Q1

Xj

216

KAPITEL 13. TOPOLOGIE

Teilen wir nun analog der Reihe nach die zweite,...,n−te Komponente, so finden wir zunehmend kleinere Quader Q2 , . . . , Qn , die sich nicht durch endlich viele Ul u ¨berdecken lassen. Die Seiten von Qn sind aber genau halb so lang wie die Seiten von Q0 ; also ist Qn ein W¨ urfel −j−1 −j−1 der Seitenl¨ange 2 r. Bezeichnen wir seinen Mittelpunkt mit xj+1 , so hat B[xj+1 ; 2 r] die gesuchte Eigenschaft. Nach Konstruktion ist xj+1 ∈ Q0 , also kxj+1 − xj k ≤ 2−j r. daher k¨onnen wir Satz 10.20 anwenden, und finden, daß der Grenzwert x∗ = lim xj existiert. Da j→∞

alle xj in D liegen und D abgeschlossen ist (Aufgabe), gilt x∗ ∈ D. Da die Ul (l ∈ L) D u ¨berdecken, gibt es ein Ul mit x∗ ∈ Ul . Da Ul nach Annahme offen ist, enth¨alt es eine ǫUmgebung von x∗ . W¨ahlen wir nun j so groß, daß kxj − x∗ k ≤ 2ǫ und 2−j r ≤ 2ǫ , so folgt f¨ ur ǫ ǫ −j ∗ ∗ −j alle x ∈ B[xj ; 2 r] die Ungleichung kx−x k ≤ kx−xj k+kxj −x k ≤ 2 + 2 = ǫ. B[xj ; 2 r] wird also von Ul allein u ⊓ ⊔ ¨berdeckt, Widerspruch. Also muß D kompakt sein. ⊓ ⊔

13.16 Bemerkung. Im Unendlich-dimensionalen ist die entsprechende Aussage falsch. Es gilt n¨amlich der Satz von Riesz: Ist V ein normierter Raum, in dem die Einheitskugel B[0; 1] kompakt ist, so ist dim V < ∞ (ohne Beweis). 13.17 Proposition Jede abgeschlossene Teilmenge einer kompakten Menge ist kompakt. Beweis. Do sei kompakt, D ⊆ D0 abgeschlossen. Dann ist U := Ω \ D offen. Ist Ul (l ∈ L) ¨ eine offene Uberdeckung von D, so erhalten wir durch Hinzuf¨ ugen der offenen Menge U eine ¨ offene Uberdeckung von D0 . Da D0 kompakt ist, gibt es eine endliche Teil¨ uberdeckung, und durch evtl. Weglassen von U erh¨alt man eine endliche Teil¨ uberdeckung von D. Also ist D kompakt. ⊓ ⊓ ⊔ ⊔ ¨ Als Anwendung beweisen wir den Satz u der Normen; auch dieser ¨ ber die Aquivalenz gilt nur f¨ ur endlich-dimensionale R¨aume. ¨ 13.18 Satz (Aquivalenz der Normen) ϕ : V → Rn sei ein Koordinatensystem des n-dimensionalen normierten Raums V u ¨ ber K = R oder C. Dann gilt: (i) Es gibt Konstanten γ1 , γ2 > 0 mit γ1 kϕ(x)k∞ ≤ kxk ≤ γ2 kϕ(x)k∞

f¨ ur alle x ∈ V.

(6)

(ii) Eine Folge xl (l = k, k + 1, . . .) aus V konvergiert genau dann gegen x∗ ∈ V , wenn die Folge ϕ(xl ) (l = k, k + 1, . . .) ihrer Koordinaten gegen die Koordinaten ϕ(x∗ ) von x∗ konvergieren. (iii) U ⊆ V ist genau dann Umgebung von x ∈ V , wenn ϕ(U ) Umgebung von ϕ(x) ist. Beweis. (i) Zun¨achst sei K = R. Durch f (u) := kϕ−1 (u)k wird eine Funktion f : K → R definiert. Wegen |f (u) − f (v)| = | kϕ−1 (u)k − kϕ−1 (v)k | ≤ kϕ−1 (u) − ϕ−1 (v)k = kϕ−1 (u − v)k ≤

217 kϕ−1 kku − vk∞ ist f stetig. Die Menge D := {U ∈ Rn | kuk∞ = 1} ist ein abgeschlossene Teilmenge der Einheitskugel, nach Proposition 13.15 und 13.17 also kompakt. Nach Satz 13.12 nimmt f also auf D sein Minimum an, d.h. es gibt ein u∗ ∈ D mit γ1 := kϕ−1 (u∗ )k ≤ kϕ−1 (u)k f¨ ur alle u ∈ D. Wegen ku∗ k∞ = 1 ist u∗ 6= 0, also ϕ−1 (u∗ ) 6= 0 und daher γ1 > 0. F¨ ur beliebiges x ∈ V \ {0} −1 ist α := kϕ(x)k∞ > 0 und u := α ϕ(x) hat die Norm kuk∞ = 1. Also ist u ∈ D und es folgt γ1 kϕ(x)k∞ ≤ kϕ−1 (u)kkϕ(x)k∞ = kα−1 xkα = kxk; daher gilt die untere Absch¨atzung in (6). F¨ ur die obere Absch¨atzung in (6) betrachten wir die zum Koordinatensystem ϕ geh¨orige Basis bj := ϕ−1 (e(j) )(j = 1, ..., n). Wegen X X X x = ϕ−1 (ϕ(x)) = ϕ−1 ( ϕ(x)j e(j) ) = ϕ(x)j ϕ−1 (e(j) ) = ϕ(x)j bj j

j

j

ist kxk = k

X j

ϕ(x)j bj k ≤

X j

| ϕ(x)j | kbj k ≤

X j

X kϕ(x)k∞ kbkj = ( kbj k)kϕ(x)k∞ ; j

P also gilt die obere Absch¨atzung mit γ2 = j kbj k > 0. F¨ ur K = C folgen die Ausagen, wenn man V als 2n-dimensionalen Vektorraum u ¨ber R auffaßt. Die Details ersparen wir uns. (ii) Aus (6) folgt kxl − x∗ k ≤ γ2 kϕ(xl ) − ϕ(x∗ )k∞ → 0

falls die Koordinaten konvergieren; also gilt dann xl → x∗ . Gilt umgekehrt xl → x∗ , so folgt aus (6) kϕ(xl ) − ϕ(x∗ )k∞ ≤ γ1−1 kxl − x∗ k → 0, also konvergieren die Koordinaten. ⊓ ⊔ ⊓ ⊔ Auch der n¨achste Satz gilt nur f¨ ur endliche Dimensionen. 13.19 Satz F¨ ur jeden endlich-dimensionalen normierten Raum V u ¨ ber K = R oder C gilt: (i) V ist ein Banachraum. (ii) (Satz von Bolzano-Weierstraß) Jede beschr¨ankte Folge aus V hat mindestens einen H¨aufungspunkt. (iii) (Satz von Heine-Borel) Eine Teilmenge von V ist genau dann kompakt, wenn sie abgeschlossen und beschr¨ankt ist. Beweis. Zun¨achst sei K = R, und ϕ : V → Kn sei ein Koordinatensystem.

218

KAPITEL 13. TOPOLOGIE

(i) Ist x≥k eine beschr¨ankte Folge aus V , so ist r := sup kxl k < ∞, nach Satz 13.18(i) l≥k

γ1−1 kxl k

γ1−1 r

also kϕ(xl )k∞ ≤ ≤ f¨ ur alle l ≥ k. Daher ist die Folge ϕ(xl )(l = k, k + 1, ...) der Koordinaten beschr¨ankt. Nach Satz 10.19 gibt es einen H¨aufungspunkt u∗ , und nach Proposition 10.14 eine konvergente Teilfolge ϕ(xlj ) → u∗ f¨ ur j → ∞. Nach Satz 13.18(ii) −1 ∗ −1 ∗ folgt xlj → ϕ (u ); daher ist ϕ (u ) H¨aufungspunkt der Folge x≥k . Da jede Cauchyfolge beschr¨ankt ist, hat sie einen H¨aufungspunkt, nach Proposition 10.18 also genau einen, und dieser ist der Grenzwert. Daher konvergiert jede Cauchyfolge aus V , d.h. V ist Banachraum. (ii) Nach Satz 13.10 ist jede kompakte Menge abgeschlossen und beschr¨ankt. Umgekehrt ¨ sei D ⊆ V abgeschlossen und beschr¨ankt, und Ul (l ∈ L) eine offene Uberdeckung von D. Da lineare Abbildungen im endlich-dimensionalen Fall stetig sind, k¨onnen wir Proposition 13.11 (i) mit f := ϕ−1 anwenden und finden, daß die ϕ(Ul ) = f −1 (Ul ) (l ∈ L) offen sind. ¨ Diese bilden also eine offene Uberdeckung von ϕ(D). Da D abgeschlossen ist, ist V \D offen, also nach demselben Argument ϕ(V \D) = Rn \ϕ(D) offen, also ϕ(D) abgeschlossen. Da D beschr¨ankt ist, ist r := sup kxk < ∞, nach Satz 13.18 (i) also kϕ(x)k ≤ γ1−1 kxk x∈D

≤ γ1−1 r f¨ ur alle x ∈ D. Daher ist ϕ(D) eine abgeschlossene Teilmenge der Kugel B[0; γ1−1 r]. Nach Proposition 13.15 und 13.17 ist ϕ(D) also kompakt. Wir k¨onnen daher endlich viele ϕ(Ulj )(j = 1, . . . , m) ausw¨ahlen, die ϕ(D) u ¨berdecken. Ulj (j = 1, . . . , m) ist die gesuchte endliche Teil¨ uberdeckung. Also ist D kompakt. F¨ ur K = C faßt man V wieder als 2n-dimensionalen Vektorraum auf und kann dann die Ergebnisse u ¨bertragen. ⊓ ⊔ ⊓ ⊔

13.20 Bemerkung. Diese zentralen S¨atze geben auf der begrifflichen Ebene vollst¨andig Auskunft u ¨ber die Topologie endlichdimensionaler Vektorr¨aume. Satz 13.18 besagt, daß man in beliebigen Basen und Normen rechnen kann, ohne daß sich topologisch etwas ¨andert. Satz 13.19 enth¨alt drei Existenzaussagen: u ¨ber Grenzwerte von Cauchyfolgen, u ¨ber H¨aufungspunkte, und u uberdeckungen. Im Unterschied zu den in den fr¨ uheren Ka¨ber endliche Teil¨ piteln gemachten Aussagen sind diese Existenzaussagen nicht konstruktiv, und m¨ ussen in den Anwendungen durch konstruktive N¨aherungsverfahren erg¨anzt werden; dies geschieht in der Numerischen Analysis. Mit diesen Hilfsmitteln ausger¨ ustet, k¨onnen wir nun auch andere Existenzprobleme der Analysis anpacken: das L¨osen von Gleichungen, die Approximation von Funktionen, und im n¨achsten Kapitel die Existenz von Integralen. Zuvor beweisen wir jedoch die wichtigen Mittelwerts¨atze. 13.21 Satz (Mittelwertsatz der Integralrechnung) Sei a, b ∈ R und f, g ∈ C([a, b], R).

219 (i) Ist f integrierbar, so ist Zb

f (x)dx = (b − a)f (ξ)

f¨ ur ein ξ ∈ [a, b].

(7)

a

f (x)

γ∗

γ

γ∗

x∗

a

x∗

ξ

b

(ii) Sind g und f g integrierbar, und ist g(x) ≥ 0 f¨ ur x ∈ [a, b], so ist Zb

f (x)g(x)dx = f (ξ)

Zb

g(x)dx f¨ ur ein ξ ∈ [a, b].

(8)

a

a

Beweis. (i) Ist der Spezialfall g(x) = 1 von (ii); es gen¨ ugt also, (ii) zu beweisen. Da [a, b] abgeschlossen und beschr¨ankt ist, ist es kompakt, also existieren γ∗ := inf f (x) und γ ∗ := sup f (x). x∈[a,b]

x∈[a,b]

F¨ ur x ∈ [a, b] ist dann γ∗ ≤ f (x) ≤ γ ∗ , wegen g(x) ≥ 0 also γ∗ g(x) ≤ f (x)g(x) ≤ γ ∗ g(x). Aus den Rechenregeln f¨ ur Integrale folgt nun γ∗

Zb a

g(x)dx ≤

Zb a

f (x)g(x)dx ≤ γ



Zb a

g(x)dx.

(9)

220

KAPITEL 13. TOPOLOGIE

Daher existiert ein γ ∈ [γ∗ , γ ∗ ] mit Zb

f (x)g(x)dx = γ

Zb

g(x)dx.

(10)

a

a

Nach dem Zwischenwertsatz nimmt f wegen (9) jeden Wert zwischen γ∗ und γ ∗ an, also gibt es ein ξ ∈ [a, b] mit f (ξ) = γ. Einsetzen in (10) ergibt (9). ⊓ ⊔ ⊓ ⊔

13.22 Satz (Taylorentwicklung mit Lagrange-Restglied) f : [α, ω] → R sei (n + 1)-mal stetig differenzierbar. F¨ ur x, x0 ∈ [α, ω] gilt dann f (x) =

n X f (k) (x0 ) k=0

k!

(x − x0 )k +

f n+1 (ξ) (x − x0 )n+1 f¨ ur ein ξ ∈ xx0 . (n + 1)!

(11)

Beweis. Im Beweis von Satz 5.47 wurde in Gleichung (6.32) f¨ ur das Restglied die Formel 1 rn (x) = n!

Zx

f (n+1) (τ )(x − τ )n dτ

x0

hergeleitet. F¨ ur x ≥ x0 ist der zweite Faktor nichtnegativ, und aus dem Mittelwertsatz folgt (n+1) (mit f statt f und g(τ ) = (x − τ )n ) Zx 1 (n+1) f (ξ) (x − τ )n dτ rn (x) = n! x0  τ =x (n+1) f (ξ) (x − τ )n+1 f (n+1) (ξ) = = (−1) (x − x0 )n+1 . n! n+1 (n + 1)! τ =x0 Der Fall x ≤ x0 geht nach Multiplikation mit (−1)n analog. ⊓ ⊔

⊓ ⊔

13.23 Satz (Mittelwertsatz der Differentialrechnung) Sei f ∈ C 1 (Ω, R) und ab ⊆ Ω. Dann gibt es ein ξ ∈ ab mit f (b) − f (a) = f ′ (ξ)(b − a).

(12)

Beweis. Wir betrachten die Funktion g : [0, 1] → R mit g(t) := f (a + t(b − a)) − f (a). g ist stetig differenzierbar mit g ′ (t) = f ′ (a + t(b − a))(b − a), und nach dem vorigen Satz ist g(1) = g(0) + g ′ (τ )(1 − 0)1 = g ′ (τ ) f¨ ur ein τ ∈ [0, 1].

221 Nun ist ξ := a + τ (b − a) ∈ ab, also f (b) − f (a) = g(1) = g ′ (τ ) = f ′ (ξ)(b − a). ⊓ ⊔ ⊓ ⊔ b

ξ1

b

a ξ

ξ2 a

13.24 Bemerkung. (i) Die S¨atze 13.21 - 13.23 gelten nicht mehr f¨ ur komplexwertige oder vektorwertige Funktionen! (ii) Die Formel (12), oder f (x) = f (x0 ) + f ′ (ξ)(x − x0 ) ist auch eine Art Linearisierung von f , aber statt den Fehlerterm wegzuwerfen, wird der Fehler in das Argument ξ gesteckt, von dem man jetzt nur noch die ungenaue Information ξ ∈ xx0 hat. Solche Information kann durchaus n¨ utzlich sein. Zum Beispiel erh¨alt man durch Taylorentwicklung von (1 + x)q um x = 0 f¨ ur rationale q und x > −1 die Formel (1 + x)q = 1 + qx +

q(q − 1) (1 + ξ)q−2 2

und daraus je nach Vorzeichen von q(q − 1) eine verallgemeinerte Bernoulli-Ungleichung (1 + x)q ≥ 1 + qx falls x > −1, q ∈ / ]0, 1[, q (1 + x) ≤ 1 + qx falls x > −1, q ∈ [0, 1],

(13) (14)

da 1 + ξ wegen ξ ∈ 0x positiv ist. Die ‘normale’ Bernoulli-Ungleichung (13) gilt also nicht f¨ ur alle Exponenten; z.B. ist √ 13.25 Definition

1+x≤1+

x f¨ ur x > −1. 2

222

KAPITEL 13. TOPOLOGIE

(i) D ⊆ V heißt konvex, falls x, y ∈ D ⇒ xy ⊆ D,

(15)

d.h. falls mit je zwei Punkten auch die Verbindungsstrecke in D liegt. (ii) f ∈ F(V, W ) heißt Lipschitz-stetig in D, falls D ⊆ Def(f ) und eine Konstante γ ≥ 0 existiert mit kf (x) − f (y)k ≤ γkx − yk

f¨ ur alle x, y ∈ D.

(16)

γ heißt Lipschitz-Konstante von f in D. (iii) f ∈ F(V, W ) heißt gleichm¨ aßig stetig in D, falls D ⊆ Def(f ) und zu jedem ǫ > 0 ein δ > 0 existiert mit kf (x) − f (y)k ≤ ǫ

f¨ ur alle x, y ∈ D mit kx − yk ≤ δ.

(17)

Offenbar ist jede Lipschitz-stetige Funktion gleichm¨aßig stetig (w¨ahle δ = γ −1 ǫ). Die Forderung der gleichm¨aßigen Stetigkeit ist etwas st¨arker als die der Stetigkeit, da f¨ ur stetige Funktionen das δ von y abh¨angen darf (vgl. Proposition 5.11, x0 = y, U0 = B[y; δ]), f¨ ur gleichm¨aßig stetige Funktionen δ aber unabh¨angig von y sein muß. Die Bedingung (16) sagt (f¨ ur festes γ) anschaulich, daß der Graph von f keine allzu scharfen Knicke haben darf und nicht allzu steil ansteigt oder abf¨allt. 13.26 Satz (i) Ist f ∈ F(V, W ) in der kompakten Menge D stetig, so ist f in D sogar gleichm¨aßig stetig. (ii) Ist f ∈ F(V, W ) in der konvexen Menge D stetig differenzierbar, und ist kf ′ (x)k ≤ γ

f¨ ur alle x ∈ D,

(18)

so ist f in D Lipschitz-stetig mit Lipschitz-Konstante γ. (iii) Ist f ∈ F(V, W ) in der kompakten und konvexen Menge stetig differenzierbar, so ist f in D Lipschitz-stetig. Kurzgefaßt: D beliebig: Lipschitz-stetig ⇒ gleichm¨aßig stetig ⇒ stetig, D kompakt: Lipschitz-stetig ⇒ (gleichm¨aßig) stetig ⇒ beschr¨ankt, D kompakt und konvex: stetig differenzierbar ⇒ Lipschitz-stetig. Beweis. (i) Sei ǫ > 0. Da f stetig ist, gibt es zu jedem y ∈ D ein δy > 0 mit kf (x) − f (y)k ≤

ǫ f¨ ur alle x ∈ B[y; δy ]. 2

(19)

223 Die offenen Kugeln Uy := B(y; 12 δy ) (y ∈ D) u ¨berdecken D; und da D kompakt ist, gibt es eine endliche Teil¨ uberdeckung Uyl (l = 1, . . . , m). F¨ ur x, y ∈ B[yl ; δyl ] gilt dann (19)

kf (x) − f (y)k ≤ kf (x) − f (yl )k + kf (y) − f (yl )k ≤

ǫ ǫ + = ǫ. 2 2

Es reicht also, δ so klein zu w¨ahlen, daß beliebige x, y mit kx − yk ≤ δ in einer gemeinsamen 1 Kugel B[yl ; δyl ] liegen. Tats¨achlich geht δ := min δyl . Da y von einem Uyl u ¨berdeckt wird, l=1:m 2 1 ist f¨ ur das betreffende l n¨amlich ky − yl k ≤ 2 δyl ≤ δyl , und kx − yl k ≤ kx − yk + ky − yl k ≤ δ + 12 δyl ≤ δyl , also x, y ∈ B[yl ; δyl ]. (ii) Da D konvex ist, ist f¨ ur feste x, y ∈ D durch z(t) := f (y + t(x − y)) ein glatter Weg z : [0, 1] → W definiert, mit Ableitung z(t) ˙ = f ′ (y + t(x − y))(x − y). Wegen (18) gilt f¨ ur t ∈ [0, 1] ˙ kz(t)k ˙ ≤ kf ′ (y + t(x − y))k kx − yk ≤ γkx − yk = ξ(t) mit einer durch ξ(t) := tγkx − yk definierten Funktion ξ : [0, 1] → R. Nach Satz 5.30 folgt kz(t) − z(s)k ≤ ξ(t) − ξ(s) f¨ ur 0 ≤ s ≤ t ≤ 1. Wegen z(0) = f (y) und z(1) = f (x) folgt (16) f¨ ur s = 0, t = 1, d.h. f ist Lipschitz-stetig. (iii) Da D kompakt ist und x → kf ′ (x)k stetig, nimmt kf ′ (x)k sein Maximum an, ist also beschr¨ankt. Daher gilt (18), und die Behauptung folgt aus (ii). ⊓ ⊔ ⊓ ⊔

13.27 Satz (Fixpunktsatz von Banach) V sei Banachraum, D ⊆ V abgeschlossen und nicht leer. Ist f ∈ F(V, V ) in D kontrahierend, d.h. gilt f (x) ∈ D f¨ ur alle x ∈ D, kf (x) − f (y)k ≤ qkx − yk f¨ ur alle x, y ∈ D, 0 ≤ q < 1,

(20) (21) (22)

so hat die Gleichung x∗ = f (x∗ ) genau eine L¨osung x∗ ∈ D (ein Fixpunkt von f ), und es gilt kf (x) − xk kf (x) − xk ≤ kx∗ − xk ≤ 1+q 1−q Beweis.

f¨ ur alle x ∈ D.

(23)

224

KAPITEL 13. TOPOLOGIE

(i) Zum Nachweis der Existenz w¨ahlen wir x0 ∈ D und betrachten die durch xl+1 := f (xl )

(24)

rekursiv definierte Folge x≥0 . Wegen (20) liegen alle xl in D. Wegen (21) kxl+1 − xl k = kf (xl ) − f (xl−1 )k ≤ qkxl − xl−1 k

ist Satz 10.18 anwendbar und zeigt, daß x∗ := lim xl existiert. Da D abgeschlossen ist folgt l→∞

(24) x ∈ D. Da f (Lipschitz-) stetig ist, folgt x = lim xl+1 = lim f (xl ) = f (x∗ ), also ist x∗ Fixpunkt. ∗



(ii) F¨ ur die Fehlerabsch¨atzung berechnen wir kx∗ − xk − kf (x) − xk ≤ kx∗ − f (x)k = kf (x∗ ) − f (x)k ≤ qkx∗ − xk. Also ist (1 − q)kx∗ − xk ≤ kf (x) − xk, was wegen q < 1 die obere Absch¨atzung in (23) ergibt. Ebenso ist kf (x) − xk − kx∗ − xk ≤ qkx∗ − xk, also kf (x) − xk ≤ (1 + q)kx∗ − xk, und das liefert die untere Absch¨atzung in (23). (iii) F¨ ur die Eindeutigkeit nehmen wir an, x ∈ D sei irgendein Fixpunkt von f . Wegen f (x) = x ergibt sich dann aus (23) kx∗ − xk, also x∗ = x. Daher kann es nur einen Fixpunkt geben. ⊓ ⊔ ⊓ ⊔

13.28 Bemerkung. (23) wird in der Praxis als Fehlerabsch¨atzung benutzt, indem man f¨ ur x eine N¨aherungsl¨osung, d.h. einen Punkt mit F (x) ≈ x einsetzt. Der tats¨achliche Fehler ist dann etwa proportional zur Norm des Residuums f (x) − x, mit einem Faktor, der zwischen 1 1 und 1−q liegt, f¨ ur kleine q also nahe bei 1. 1+q Der Fixpunktsatz von Banach ist auch n¨ utzlich, um den Fehler von N¨aherungsl¨osungen von beliebigen Gleichungen und Gleichungssystemen abzusch¨atzen: 13.29 Satz f ∈ F(V, W ) sei in der offenen Kugel B(x0 ; r) stetig differenzierbar. Ist V ein Banachraum, gibt es eine injektive lineare Abbildung C ∈ Lin(W, V ) mit kI − Cf ′ (x)k ≤ q < 1

f¨ ur alle x ∈ B(x0 ; r),

(25)

und ist ǫ := kCf (x0 )k < r(1 − p),

(26)

ǫ ǫ ≤ kx∗ − x0 k ≤ . 1+q 1−q

(27)

so hat f in B(x0 ; r) genau eine Nullstelle x∗ , und es gilt

225 Beweis. Wir betrachten die (konvexe und abgeschlossene) Kugel D := B[x0 ; r0 ] mit r0 := ǫ/(1 − q). Wegen (26) ist r0 < r, also D ⊆ Def(f ). Wir zeigen nun, daß die Funktion g : D → V mit g(x) := x − Cf (x)

(28)

in D kontrahierend ist. Wegen g ′ (x) = I − Cf ′ (x) und (25) ist kg ′ (x)k ≤ q < 1 f¨ ur alle x ∈ D, nach Satz 13.26 also kg(x) − g(y)k ≤ qkx − yk f¨ ur x, y ∈ D.

(29)

Außerdem ist kg(x0 ) − x0 k = kCF (x0 )k = ǫ0 . F¨ ur x ∈ D gilt nun kg(x) − x0 k ≤ kg(x) − g(x0 )k + kg(x0 ) − x0 k ≤ qkx − x0 k + ǫ = qr0 + (1 − q)r0 = r0 , also g(x) ∈ D. Daher ist g in D kontrahierend. Nach Satz 13.27 gibt es also genau ein x∗ ∈ D mit g(x∗ ) = x∗ , nach (28) also mit Cf (x∗ ) = 0. Da C injektiv ist, ist das gleichwertig zu f (x∗ ) = 0. Die Fehlerabsch¨atzung (27) folgt aus (23) und (29) ⊓ ⊔

⊓ ⊔

13.30 Bemerkung. F¨ ur kleine r ist (25) in der Regel mit C = f ′ (x0 )−1 – falls existent – erf¨ ullt, und wegen ǫ ≤ kCk kf (x0 )k gilt (26), falls das Residuum f (x0 ) gen¨ ugend klein ist. Der Satz sagt also, unter welchen Umst¨anden in der N¨ahe eines Punktes x0 mit kleinem Residuum f (x0 ) eine Nullstelle x∗ existiert, und wie weit sie h¨ochstens von x0 entfernt ist. Daß es nicht immer in der N¨ahe von x0 eine Nullstelle geben muß, zeigt das Beispiel f (x) = x2 + ǫ2 , x0 = 0.

Zusatz Ist dim W = dim V < ∞ so folgt die Injektivit¨at von C schon aus (25) : Cf ′ (x) ist n¨amlich nichtsingul¨ar wegen Satz 10.22 ; also ist 0 6= det(Cf ′ (x)) = det C · det f ′ (x), und daher det C 6= 0. ⊓ ⊔ Wir illustrieren den Sachverhalt im vorigen Beweis:

226

KAPITEL 13. TOPOLOGIE x2 f1 (x) = 0

x∗

f2 (x) = 0

x1

N¨aherung x0 z. B. aus Zeichnung. Verbesserung z. B. durch Iteration xl+1 = g(xl ) mit g = Vorschrift zum Verbessern einer N¨aherung, z.B. nach (28).

13.31 Proposition Ist f ∈ F(V, W ) in der kompakten Menge D stetig, so ist f in D beschr¨ankt: kf kD = sup kf (x)k < ∞. x∈D

Beweis. Die Abbildung x → kf (x)k ist stetig, nimmt also ihr Maximum in der kompakten Menge D an, etwa bei x∗ ∈ D. Also ist (vgl. Definition 7.5) kf kD = kf (x∗ )k < ∞. ⊓ ⊔ ⊔ ⊓ 13.32 Satz x : [α, ω] → V sei ein Weg. Dann gibt es zu jedem ǫ > 0 einen C 1 -Weg z : [α, ω] → V mit kz − xk[α,ω] ≤ ǫ. (Man sagt daf¨ ur kurz: Jeder Weg kann gleichm¨aßig durch C 1 -Wege beliebig genau approximiert werden. ”Gleichm¨aßig” bezieht sich dabei darauf, daß der Fehler z(t) − x(t) f¨ ur alle t ∈ [α, ω] gleichzeitig beliebig klein gemacht werden kann.) Beweis. O.B.d.A. sei α = 0, ω = 1; der allgemeine Fall folgt durch lineare Substitution. Wir w¨ahlen eine große Zahl N ∈ N und suchen nach einem N¨aherungsweg z, der an den Stellen t = Nn (n = 0, ..., N ) mit xu unstiger Ansatz daf¨ ur ist ¨bereinstimmt. Ein g¨ z(t) :=

N X n=0

f (tN − n)x(

n ), N

(30)

wobei f : R → [0, 1] eine C 1 -Funktion mit f (0) = 1, f (s) = 0 f¨ ur | s |≥ 1

(31)

227 ist (eine Hutfunktion). Die Bedingung (31) garantiert n¨amlich, daß in der Summe (30) f¨ ur m m t = N nur ein Term u ¨brigbleibt, der gerade den Wert x( N ) annimmt: N X X m m n m n z( ) = f (m − n)x( ) = x( ). f (m − n)x( ) = f (0)x( ) + n N N N N n=0 n6=m

m m+1 , N ] gilt nun t = F¨ ur t ∈ [ N

z(t) =

N X n=0

m+s N

mit s ∈ [0, 1], also

f (m + s − n)x(

n m m+1 ) = f (s)x( ) + f (s − 1)x( ). N N N

(32)

Wir wollen nun f außerdem so w¨ahlen, daß f¨ ur den konstanten Weg x(t) = 1 auch der N¨aherungsweg konstant ist, z(t) = 1. Da dann die Beziehung N X k=0

f (tN − n) = 1 f¨ ur t ∈ [0, 1]

folgt, nennt man die Menge der Funktionen t → f (tN − n) eine Zerlegung der Eins. 1

f(s)

Wegen (32) erfordert dies die Bedingung

X

f (tN -n)

großes N

f (s) + f (s − 1) = 1 f¨ ur s ∈ [0, 1].

(33)

(31) und (33) lassen sich durch viele Funktionen erf¨ ullen z.B. durch die Funktion mit ( 1 − 3s2 + 2|s|3 f¨ ur|s| ≤ 1, f (s) = 0 sonst. Die Ableitung f ′ (s) =

(

−6s + 6s|s| f¨ ur|s| ≤ 1, 0 sonst,

ist noch stetig, also ist (30) ein C 1 -Weg. Wir betrachten nun den Fehler; wegen (32), (33) ist   m m+1 z(t) − x(t) = f (s)x + f (s − 1)x − (f (s) + f (s − 1)) x(t) N N      m  m+1 = f (s) x − x(t) , − x(t) + f (s − 1) x N N

228

KAPITEL 13. TOPOLOGIE

und wegen f (s), f (s − 1) ≥ 0 folgt kz(t) − x(t)k ≤ f (s)kx

m N

− x(t)k + f (s − 1)kx



m+1 N



− x(t)k.

(34)

Da [0, 1] kompakt ist, ist die stetige Funktion x in [0, 1] gleichm¨aßig stetig, also k¨onnen wir δ > 0 so w¨ahlen, daß kx(s) − x(t)k ≤ ε f¨ ur alle s, t ∈ [0, 1] mit |s − t| ≤ δ. W¨ahlen wir nun N ≥ δ −1 , so l¨aßt sich dies auf die Ausdr¨ ucke in (34) anwenden, und wir erhalten (33) kz(t) − x(t)k ≤ f (s)ε + f (s − 1)ε = ε. Da dies f¨ ur alle t ∈ [0, 1] = [α, ω] gilt, folgt die Behauptung. ⊓ ⊔

⊓ ⊔

Die Methode der Approximation mit einer Zerlegung der Einsl¨aßt sich noch in vielen anderen Situationen anwenden. Auf anderen Methoden beruht ein weiterer wichtiger Approximationssatz, der ohne Beweis zitiert werden soll: 13.33 Satz (Approximationssatz von Weierstraß) Jede in einer kompakten Teilmenge D von Rn stetige reellwertige Funktion l¨aßt sich in D durch polynomiale Funktionen beliebig genau gleichm¨aßig approximieren. Dabei ist eine polynomiale Funktion eine Linearkombination von Monomen der Form xk11 xk22 . . . xknn (k1 , . . . , kn ∈ N0 ). Beweis. siehe etwa Barner-Flohr, Analysis II, §13.4. ⊓ ⊔

⊓ ⊔

Zur genaueren Beschreibung der Approximation von Funktionen durch eine Folge von (immer genaueren) N¨aherungsfunktionen muß man verschiedene Konvergenzbegriffe unterscheiden. Da Funktionenr¨aume unendlich-dimensional sind, sind unterschiedliche Konvergenzbegriffe n¨amlich nicht mehr gleichwertig. 13.34 Definition D sei eine nichtleere Menge. (i) Mit B(D, W ) bezeichnen wir den Vektorraum der beschr¨ankten Funktionen f : D → W mit der Supremumsnorm k · kD . Mit C(D, W ) bezeichnen wir den Unterraum der stetigen und beschr¨ankten Funktionen. (Normalerweise ist D kompakt, dann ergibt sich die Beschr¨anktheit aus Proposition 13.31.) (ii) Eine Folge f≥k von Funktionen aus B(D, W ) heißt gleichm¨ aßig konvergent gegen f ∈ B(D, W ), falls lim kfl − f kD = 0; (35) l→∞

sie heißt punktweise konvergent, falls lim fl (x) = f (x)

l→∞

f¨ ur alle x ∈ D.

In beiden F¨allen heißt f der Grenzwert der Funktionenfolge.

(36)

229 13.35 Beispiel. Sei D = [0, 1]. Die Folge f≥1 der durch fl (x) := xl definierten Funktionen konvergiert punktweise, aber nicht gleichm¨aßig gegen die Funktion f mit ( 0 f¨ ur 0 ≤ x < 1, f (x) = 1 f¨ ur x = 1. Die Folge g≥0 der durch gl (x) := (x2 + l2 )−1 definierten Funktion konvergiert punktweise und gleichm¨aßig gegen 0.

f(x) f(x) g1 g2 g3 g10

f1 f2

x

f3 f4

f10

x

Wesentlich f¨ ur die gleichm¨aßige Konvergenz ist also, daß man um die Grenzfunktion f einen u ¨berall gleichm¨aßig dicken ”ε-Schlauch” legen kann, in dem fast alle fl verlaufen; im ersten Beispiel bleibt aber in der N¨ahe von 1 der Fehler f (x) − fl (x) groß. 13.36 Proposition Jede gleichm¨aßig konvergente Folge ist punktweise konvergent (mit gleichem Grenzwert); eine punktweise konvergente Folge braucht aber nicht gleichm¨aßig konvergent zu sein. Beweis. (i) f≥k sei gleichm¨aßig konvergent gegen f . F¨ ur x ∈ D ist dann kfl (x) − f (x)k ≤ kfl − f kD → 0 also f (x) = lim fl (x). l→∞

f¨ ur l → ∞,

230

KAPITEL 13. TOPOLOGIE

(ii) F¨ ur die Folge f≥1 aus dem vorigen Beispiel gilt lim fl (x) = lim xl = 0 f¨ ur 0 ≤ x < 1

l→∞

l→∞

lim fl (1) = lim 1 = 1;

l→∞

l→∞

also ist die Folge punktweise konvergent. Andrerseits wird kfl − f kD = sup |fl (x) − f (x)| = sup xl = 1 x∈[0,1]

x∈[0,1[

nicht beliebig klein, also ist die Folge nicht gleichm¨aßig konvergent. ⊓ ⊔ ⊓ ⊔ Daß, wie im Beispiel, der Grenzwert einer Folge stetiger Funktionen unstetig ist, kann bei gleichm¨aßiger Konvergenz nicht passieren: 13.37 Satz Ω sei ein Hausdorffraum, W sei ein Banachraum. (i) Der Grenzwert jeder gleichm¨ aßig konvergierenden Folge f≥k von stetigen Funktionen fl : Ω → W ist stetig. (ii) B(Ω, W ) und C(Ω, W ) sind Banachr¨aume. Beweis. (i) Sei f = lim fl . F¨ ur beliebiges l ≥ k und x, x0 ∈ Ω gilt l→∞

kf (x) − f (x0 )k ≤ kf (x) − fl (x)k + kfl (x) − fl (x0 )k + kfl (x0 ) − f (x0 )k ≤ kf − fl kΩ + kfl (x) − fl (x0 )k + kfl − f kΩ Den ersten und dritten Term kann man f¨ ur gen¨ ugend große l kleiner als 3ǫ machen, den zweiten (f¨ ur ein solches l) f¨ ur x aus einer geeigneten Umgebung von x0 ebenso. In dieser Umgebung gilt dann kf (x) − f (x0 )k ≤ 3ǫ + 3ǫ + 3ǫ ≤ ǫ. Daraus folgt die Stetigkeit von f . (ii) f≥k sei eine Cauchy-Folge in B(Ω, W ). F¨ ur beliebiges x ∈ Ω und l, m ≥ k gilt dann kfl (x) − fm (x)k ≤ kfl − fm kΩ , also ist sup kfl (x) − fm (x)k ≤ sup kfl − fm kΩ → 0 f¨ ur m → ∞. l≥m

l≥m

Daher ist die Folge fl (x) (l = k, k + 1, . . .) eine Cauchy-Folge in W . Da W Banachraum ist, gibt es einen Grenzwert, den wir f (x) nennen. Dadurch wird eine Funktion f : Ω → W definiert. Nun ist sup kfl − fm k ≤ ǫ f¨ ur gen¨ ugend große m, also l≥m

kf (x) − fm (x)k = lim kfl (x) − fm (x)k ≤ sup kfl − fm kΩ ≤ ǫ l→∞

l≥m

231 f¨ ur alle x ∈ Ω. Daher ist kf − fm kΩ = sup kf (x) − fm (x)k ≤ ǫ

f¨ ur fast alle m.

(37)

x∈Ω

F¨ ur irgendein solches m folgt kf kΩ ≤ kfm kΩ + ǫ < ∞; also ist f beschr¨ankt in Ω, d.h. f ∈ B(Ω, W ). Da ǫ > 0 beliebig war, folgt aus (37) f = lim fm . Also hat jede Cauchym→∞

Folge in B(Ω, W ) einen Grenzwert, d.h. B(Ω, W ) ist Banachraum. Sind alle fl ∈ C(Ω, W ), so ist auch f ∈ C(Ω, W ) wegen (i), also ist auch C(Ω, W ) Banachraum. ⊓ ⊔

⊓ ⊔

13.38 Satz Ω ⊆ V sei ein Gebiet. Konvergiert die Folge f≥k aus C 1 (Ω, W ) punktweise und ′ die Folge f≥k der Ableitungen gleichm¨aßig, so ist der Grenzwert f := lim fl in C 1 (Ω, W ), und die Ableitung berechnet sich aus

l→∞

f ′ (x) = lim fl′ (x) f¨ ur alle x ∈ Ω. l→∞

(38)

Beweis. Wegen der gleichm¨aßigen Konvergenz ist nach dem vorigen Satz der Grenzwert f ∗ := lim fl′ eine stetige Funktion. Um f ∗ = f ′ zu zeigen, w¨ahlen wir x0 ∈ Ω beliebig und zeigen, daß f (x) − f (x0 ) − f ∗ (x0 )(x − x0 ) = o(kx − x0 k) f¨ ur x → x 0 (39)

gilt. Nach Definition der Ableitung folgt dann n¨amlich f ′ (x0 ) = f ∗ (x0 ) f¨ ur alle x0 ∈ Ω, und da die punktweise Konvergenz aus der gleichm¨aßigen folgt (Proposition 13.36), ergibt sich (38) (mit x0 statt x). Um (39) zu zeigen, w¨ahlen wir ǫ > 0 beliebig. Wegen der gleichm¨aßigen Konvergenz fl′ → f ∗ gibt es ein N > 0 mit kfl′ − f ∗ k ≤ ǫ f¨ ur alle l ≥ N. (40) Wegen der Stetigkeit von f ∗ gibt es ein δ > 0 mit

kf ∗ (x) − f ∗ (x0 )k ≤ ǫ f¨ ur alle x ∈ B[x0 ; δ];

(41)

da Ω ein Gebiet ist, kann δ so klein gew¨ahlt werden, daß die ganze Kugel B[x0 ; δ] in Ω liegt. F¨ ur x ∈ B[x0 ; δ] und l ≥ N ist nun kfl′ (x) − f ∗ (x0 )k ≤ kfl′ (x) − f ∗ (x)k + kf ∗ (x) − f ∗ (x0 )k (41)

(40) ≤ kfl′ − f ∗ kΩ + ǫ ≤ 2ǫ. Aus Satz 13.26, angewandt mit f˜(x) = fl (x) − f ∗ (x0 )x statt f und der (konvexen) Kugel D = B[x0 ; δ] ergibt sich

kfl (x) − fl (x0 ) − f ∗ (x0 )(x − x0 )k = kf˜(x) − f˜(x0 )k ≤ 2ǫkx − x0 k

232

KAPITEL 13. TOPOLOGIE

f¨ ur alle l ≥ N . Der Grenz¨ ubergang l → ∞ liefert nun kf (x) − f (x0 ) − f ∗ (x0 )(x − x0 )k ≤ 2ǫkx − x0 k f¨ ur x ∈ B[x0 ; δ]. ⊓ ⊔

Da ǫ > 0 beliebig war, folgt (39), und damit der Satz. ⊓ ⊔

13.39 Bemerkung. Aus der Konvergenz f = lim fl allein l¨aßt sich noch nicht auf die l→∞

Konvergenz der Ableitungen oder auf die Differenzierbarkeit von f schließen, wie ein Gegenbeispiel in Forster I, Beispiel (21.7) zeigt. Das dortige Beispiel (21.4) zeigt, daß auch beim Integrieren von Grenzwerten Sorgfalt n¨otig ist; punktweise Konvergenz sichert nicht die Konvergenz der Integrale. Daß f¨ ur das Integral gleichm¨aßige Konvergenz ausreicht, ergibt sich aus dem n¨achsten Satz. 13.40 Satz (i) In einem Banachraum V ist jeder Weg integrierbar. (ii) Ist x≥k eine Folge von Wegen xl : [α, ω] → V , die gleichm¨aRßig gegen den Weg t x : [α, ω] → V konvergiert, so konvergieren die Stammfunktionen α xl (s)ds gleichm¨aßig gegen eine Stammfunktion von x: Z t Z t lim x(s)ds. (42) xl (s)ds = l→∞

α

α

Beweis. x≥k sei eine Folge von integrierbaren Wegen, die gleichm¨aßig gegen x konvergieren. Wir zeigen, daß die Stammfunktion Z t xl (s)ds (t ∈ [α, ω]) (43) yl (t) := α

eine Cauchy-Folge in C([α, ω], V ) bilden. Dazu berechnen wir

Z t

Z t

kyl (t) − ym (t)k = xl (s)ds − xm (s)ds

α

α

Z t

Z t Z t



kxl − xm k[α,ω] ds kxl (s) − xm (s)kds ≤ = (xl (s) − xm (s))ds ≤ α

α

α

= (t − a)kxl − xm k[α,ω] ≤ (ω − α)kxl − xm k[α,ω] .

Da diese Schranke unabh¨angig von t ist, ist

kyl − ym k[α,ω] ≤ (ω − α)kxl − xm k[α,ω] .

(44)

Da die Folge x≥k gleichm¨aßig konvergent ist, ist sie eine Cauchy-Folge, und aus (44) folgt, daß die y≥k ebenfalls eine Cauchy-Folge bilden. Offensichtlich sind die yl stetig, und da C([α, ω], V ) nach Satz 13.37(ii) ein Banachraum ist (weil V als Banachraum vorausgesetzt war), konvergieren die yl gleichm¨aßig gegen eine Grenzfunktion y ∈ C([α, ω], V ).

233 Nach Konstruktion (43) ist nun y˙l = xl , nach Voraussetzung konvergiert also die Folge der Ableitungen y˙≥k gleichm¨aßig gegen x. Nach dem vorigen Satz ist die eben konstruierte Grenzfunktion y stetig differenzierbar (... auch am Rand geht im vorigem Beweis alles in Ordnung, weil auch halbe Kugeln noch konvex sind) und hat x als Ableitung. Wegen (43) ist außerdem y(α) = lim yl (α) = lim 0 = 0, also lim

l→∞

Zt

xl (s)ds = lim yl (t) = y(t) − y(α) = l→∞

α

Zt

x(s)ds.

α

Das ist (42); daher gilt (ii). H¨atten wir die Existenz des Integrals von x(s) schon gewußt, w¨are der Beweis von (42) eine direkte Konsequenz von Satz 13.38 gewesen. Der aufwendigere Existenzbeweis dient dazu, auf einfache Weise den noch fehlenden Teil (i) zu beweisen. Dazu reicht es jetzt n¨amlich, einen beliebigen Weg durch eine Folge von integrierbaren Wegen beliebig genau gleichm¨aßig zu approximieren. Dies geht aber nach Satz 13.32. Die dort im Beweis verwendete Funktion f hat n¨amlich eine Stammfunktion  1  f¨ ur s < −1,  −4 s3 |s| 3 g(s) = ur − 1 ≤ s ≤ 1, s − s + 4 f¨   1 +4 f¨ ur s > 1. Die Approximationswege (30) sind daher integrierbar:   τ Zτ Z N N n X X g(τ N − n) − g(−n)  n    x = . ⊓ z(t)dt = f (tN − n)dt x ⊔ N N N n=0 n=0 0

0

Als letzten topologischen ”Zusammenh¨angens”.

Begriff

pr¨azisieren

wir

die

Vorstellung

⊓ ⊔ des

13.41 Definition (i) Ein Hausdorffraum Ω heißt wegzusammenh¨ angend, falls es zu je zwei Punkten a, b ∈ Ω einen Weg x : [0, 1] → Ω gibt. Eine offene, wegzusammenh¨angende Teilmenge eines normierten Raumes heißt ein Gebiet. (ii) Zwei Wege x, y : [α, ω] → Ω heißen zueinander homotop, wenn eine stetige Funktion h : [α, ω] × [0, 1] → Ω existiert mit h(t, 0) = x(t), h(t, 1) = y(t) f¨ ur t ∈ [α, ω], h(α, s) = x(α), h(ω, s) = x(ω) f¨ ur s ∈ [0, 1] (d.h. die Anfangs- und Endpunkte bleiben fest). h heißt dann eine x und y verbindende Homotopie.

234

KAPITEL 13. TOPOLOGIE t=ω s=1

s=

1 3

s=0 s=

2 3

y(t)

(iii) Ein Gebiet Ω heißt einfach zusammenh¨ angend, wenn alle Wege mit denselben Anfangs- und Endpunkten zueinander homotop sind. (iv) Zwei Mengen Ω1 , Ω2 ⊆ V heißen hom¨ oomorph, wenn es eine stetige Bijektion ϕ : Ω1 → Ω2 gibt, deren Inverse ϕ−1 ebenfalls stetig ist. ϕ heißt dann ein Hom¨ oomorphismus. Ein physikalisch wichtiges Beispiel eines Gebiets, das nicht einfach zusammenh¨angend ist, erh¨alt man, wenn man vom R3 das Bild eines geschlossenen, glatten Wegs (Kupferdraht) entfernt. Wege durch die ”Schlaufen” und Wege daran vorbei sind z.B. nicht homotop.

13.42 Satz Ist Ω ⊆ V zu einer offenen konvexen Menge hom¨oomorph, so ist Ω ein einfach zusammenh¨angendes Gebiet. Beweis. Ω sei zur offenen konvexen Menge D hom¨oomorph, und ϕ : Ω → D sei ein Hom¨oorphismus. Sind a, b ∈ Ω, so ist (wegen der Konvexit¨at von D) durch   x(t) := ϕ−1 ϕ(a) + t(ϕ(b) − ϕ(a)) ein Weg x : [0, 1] → Ω definiert (das Urbild der Strecke ϕ(a)ϕ(b) ); also ist Ω wegzusammenh¨angend. Nach Proposition 13.11 ist Ω offen, also ein Gebiet. Sind x, y : [α, ω] → Ω

235 zwei Wege, so ist durch    h(t, s) := ϕ−1 ϕ(x(t)) + s ϕ(y(t)) − ϕ(x(t))

eine x und y verbindende Homotopie h definiert; also ist Ω einfach zusammen- h¨angend. ⊓ ⊔ ⊓ ⊔

13.43 Satz (i) Eine Menge Ω ⊆ V ist genau dann ein Gebiet, wenn Ω offen ist und es keine nichtleere, echte offene Teilmenge D von Ω gibt, die relativ zu Ω abgeschlossen ist. (ii) Ist Ω ein Gebiet in Rn (n > 1), so ist auch jede Menge Ω\M mit endlichen M ⊆ Ω ein Gebiet. Beweis. F¨ ur (i) sei auf Lehrb¨ ucher der Topologie verwiesen (z.B. Franz, Topologie I, §7+8). (ii) geht induktiv durch mehrmaliges Wegnehmen einzelner Punkte a ∈ Ω. Ist D eine nichtleere, echte, relativ zu Ω abgeschlossene Teilmenge von Ω\{a}, so w¨ahlen wir b ∈ D und einen Weg x : [0, 1] → Ω, der a und b verbindet. Auf dem Weg findet man nun leicht einen Randpunkt, der zu D geh¨ort, weil D abgeschlossen ist. Also ist D relativ zu Ω nicht offen. Da Ω\{α} offen ist, folgt aus (i), daß es ein Gebiet ist. Induktiv folgt (ii). ⊓ ⊓ ⊔ ⊔ Eine offene Kugel ohne Mittelpunkt ist also ein Gebiet. Im R3 ist dieses Gebiet einfach zusammenh¨angend (aber Satz 13.42 ist nicht anwendbar), im R2 dagegen nicht (Spiralen um den Mittelpunkt sind nur dann homotop, wenn sie dieselbe ”Windungszahl” haben). Man beachte, daß in Ω = R3 verknotete und unverknotete Wege homotop sind, sich also nicht jede Homotopie physikalisch durch Verzerrung und Verschiebung allein beschreiben l¨aßt — Kreuzung von Wegst¨ ucken muß auch zugelassen werden. Der Begriff des Zusammenhangs wird oft ben¨otigt, um die Eindeutigkeit von Objekten zu zeigen. Als Beispiel beweisen wir: 13.44 Proposition Ω ⊆ Kn sei Gebiet, f, g ∈ C 1 (Ω, W ). Existiert ein β > 0 mit kf ′ (x) − g ′ (x)k ≤ βkf (x) − g(x)k f¨ ur alle x ∈ Ω,

(45)

und ist f (x0 ) = g(x0 ) f¨ ur ein x0 ∈ Ω, so ist f (x) = g(x) f¨ ur alle x ∈ Ω. Beweis. Wir zeigen zun¨achst, daß die Menge D := {x ∈ Ω|f (x) = g(x)} relativ zu Ω offen und abgeschlossen ist. Um zu zeigen, daß D offen ist, konstruieren wir zu jedem x ∈ D eine ε-Umgebung, die ganz in D liegt. Da Ω offen ist und x ∈ D ⊆ Ω, k¨onnen wir ε > 0 so w¨ahlen, daß die Kugel B := B[x; ε] in D liegt, und durch Verkleinern von ε k¨onnen wir erreichen, daß auch βε ≤ 1/2 ist. Da B eine endlich-dimensionale Kugel ist, ist B kompakt; also ist s := sup kf (z) − g(z)k (46) z∈B

236

KAPITEL 13. TOPOLOGIE

endlich. Aus (45) folgt nun kf ′ (z) − g ′ (z)k ≤ βs f¨ ur z ∈ B. Da B konvex ist, folgt nach Satz 13.26 die Lipschitzstetigkeit von f − g in B mit Lipschitzkonstante γ = βs. Wegen z ∈ B und βε ≤ 1/2 folgt kf (z) − f (x)k ≤ βskz − xk ≤ βsε ≤ s/2, wegen (46) also s ≤ s/2. Daraus folgt s ≤ 0, und (46) ergibt f (z) = g(z) f¨ ur alle z ∈ B. Also ist (die ε-Umgebung) B in D enthalten, d.h. D ist offen. Da f und g stetig sind, ist D relativ zu Ω auch abgeschlossen (Proposition 13.4). Da Ω zusammenh¨angend und D nichtleer ist (x0 ∈ D), muß nach Satz 13.43 also D = Ω sein. Daraus folgt die Behauptung. ⊓ ⊓ ⊔ ⊔ Als Folgerung erhalten wir:

13.45 Satz Die lineare Differentialgleichung x(t) ˙ = A(t)x(t) + g(t)

(47)

mit stetigen Funktionen A : R → Kn×n und g : R → Kn hat h¨ochstens eine L¨osung x ∈ C 1 (R, Kn ) mit vorgegebener Anfangsbedingung x(t) = x0 .

(48)

(Daß tats¨achlich eine L¨osung existiert, kann mit dem Fixpunktsatz von Banach gezeigt werden, s. etwa Barner/Flohr, Analysis II, S. 155. Spezialf¨alle werden wir sp¨ater anders beweisen.) Beweis. Da A stetig ist, ist βr := sup kA(t)k < ∞. |t−t0 |≤r

Sind x und y L¨osungen von (47), (48), so ist kx(t) ˙ − y(t)k ˙ = kA(t)x(t) + g(t) − (A(t)y(t) + g(t))k = kA(t)(x(t) − y(t))k ≤ kA(t)kkx(t) − y(t)k ≤ βr kx(t) − y(t)k f¨ ur |t − t0 | ≤ r. Aus der vorigen Proposition, angewandt mit Ω = B(t0 ; r), folgt x(t) = y(t) f¨ ur t ∈ B(t0 ; r), und da r beliebig war, folgt x(t) = y(t) f¨ ur alle t ∈ R. ⊓ ⊓ ⊔ ⊔

Kapitel 14 Unendliche Reihen Dieses Kapitel befaßt sich mit der Summation von unendlich vielen Zahlen, Vektoren oder Funktionen. Wir untersuchen, wann der entsprechende Grenzwert Sinn macht und welche Eigenschaften diese unendlichen Summen haben. Insbesondere behandeln wir Potenzreihen, die viele praktisch relevante Funktionen wie die Exponentialfunktion definieren. Durch Potenzreihen darstellbare Funktionen haben besonders sch¨one Eigenschaften, die ausf¨ uhrlich in Vorlesungen u ¨ber Funktionentheorie behandelt werden. V ist in diesem Kapitel stets ein Banachraum; der wichtigste Fall ist hier eindimensional, V = K. 14.1 Definition (i) Ein Ausdruck der Form

∞ X

al

(1)

l=m

mit Koeffizienten al ∈ V (l = m, m + 1, . . .) heißt (unendliche) Reihe. Die Reihe (1) heißt konvergent, falls der Grenzwert s := lim

n→∞

n X

al

(2)

l=m

existiert, und divergent sonst. Im Fall der Konvergenz bezeichnet man den Grenzwert ebenfalls mit der Formel (1). (ii) Eine (unendliche) Summe ist ein Ausdruck der Form X al

(3)

l∈J

mit einer abz¨ahlbar unendlichen Indexmenge J und einer Familie aJ mit Werten ∞ X al ∈ V (l ∈ J). F¨ ur jede Abz¨ahlung lk (k = 1, 2, . . .) von J heißt die Reihe alk k=1

eine Anordnung der Summe (3).

237

238

KAPITEL 14. UNENDLICHE REIHEN ∞ X

kal k konvergiert, und die SumX me (3) heißt absolut konvergent, falls (mindestens) eine Anordnung von kal k

(iii) Die Reihe (1) heißt absolut konvergent, falls

l=m

konvergiert; offensichtlich ist dann

X

l∈J

kal k auch absolut konvergent.

In einer unendlichen Reihe haben also die Summanden eine festgelegte Reihenfolge, in einer unendlichen Summe nicht. Daß dieser Unterschied keine Pedanterie ist, zeigt sp¨ater Beispiel 14.13. In einfachen, grundlegenden F¨allen l¨aßt sich die Summe leicht ausrechnen: 14.2 Beispiel. (i) F¨ ur jede konvergente Folge b≥m mit Grenzwert b gilt ∞ X l=m

(bl − bl+1 ) = bm − b .

(4)

Denn in der Teilsumme sn :=

n X (bl − bl+1 ) = (bm − bm+1 ) + (bm+1 − bm+2 ) + · · · + (bn − bn+1 ) = bm − bn+1 l=m

heben sich die bl paarweise weg, so daß lim sn = lim (bm − bn+1 ) = bm − b .

n→∞

n→∞

(ii) (Geometrische Reihe) F¨ ur m ≥ 0 ist ∞ X

αq l =

l=m

αq m 1−q

falls |q| < 1 .

(5)

Denn mit der Nullfolge bl := αq l /(1 − q) ist bl − bl+1 = (iii) Es ist

αq l+1 αq l αq l − = (1 − q) = αq l . 1−q 1−q 1−q

∞ X

α α = l(l − 1) m−1 l=m

f¨ ur m ≥ 2 .

Denn mit der Nullfolge bl := α/(l − 1) ist bl − bl+1 =

α α α − = l−1 l l(l − 1)

.

(6)

239 14.3 Satz In einem Banachraum konvergiert jede Anordnung einer absolut konvergenten Summe (3), und der – ebenfalls mit (3) bezeichnete – Grenzwert ist unabh¨angig von der Anordnung. Außerdem gilt die Absch¨atzung

X X

al ≤ kal k . (7)

l∈J

l∈J

14.4 Bemerkung. Dieser Satz verallgemeinert das allgemeine Kommutativgesetz (Proposition 4.15(i) auf absolut konvergente unendliche Summen. Man kann zeigen, daß auch die u ¨brigen Regeln von Proposition 4.15(i) richtig bleiben, falls alle auftretenden Summen absolut konvergent sind. F¨ ur Reihen, die nicht absolut konvergent sind, sind diese Regeln aber falsch; daher muß man beim Rechnen mit nicht absolut konvergenten Reihen besondere Vorsicht walten lassen. Beweis. (i) O.B.d.A. sei J = N; d.h. wir gehen von einer bestimmten Anordnung aus und setzen sn :=

n X

al ,

n X

Sn :=

l=1

F¨ ur n ≥ m ist

l=1

kal k,

S :=

∞ X l=1

kal k .

n n

X X

kal k = Sn − Sm . alk ≤ ksn − sm k =

(8)

l=m+1

k=m+1

F¨ ur m, n → ∞ geht die Schranke Sn − Sm gegen S − S = 0; also ist die Folge s≥1 eine Cauchyfolge. Da wir nach Voraussetzung in einem Banachraum rechnen, existiert der ∞ X Limes s = lim sn = al . n→∞

l=1

(ii) F¨ ur m = 0 ist sm = Sm = 0, und (8) wird zu ksn k ≤ Sn . Daher ist ksk = lim ksn k ≤ lim Sn = S, n→∞

n→∞

und das ist die Formel (7). (iii) Nun betrachten wir eine beliebige Abz¨ahlung lk (k = 1, 2, . . .) von J und setzen s′n

:=

n X

alk ,

Sn′

:=

k=1

n X k=1

F¨ ur m ≥ supK ist dann

kalk k, K := {lk |k = 1, . . . , n}.



X X

X al al − al = ksm − s′n k = l≤m



X l≤m l6∈K

l∈K

kal k =

X l≤m

l≤m l6∈K

kal k −

X l∈K

kal k = Sm − Sn′ ,

und f¨ ur m → ∞ erhalten wir

ks − s′n k = lim ksm − s′n k ≤ lim (Sm − Sn′ ) = S − Sn′ . m→∞

m→∞

(9)

240

KAPITEL 14. UNENDLICHE REIHEN Sn′

Die Folge der

ist monoton wachsend und nach oben durch

∞ X k=1

X

kalk k =

l∈J

kal k = S

beschr¨ankt, nach Satz 10.6 ist also lim Sn′ = supSn′ ≤ S. Da die lk eine Abz¨ahlung von n→∞

n≥1

J = N bilden, gibt es zu jedem l ∈ N ein n ∈ N mit {1, ..., l} ⊆ {l1 , ..., ln }. Also ist Sl ≤ Sn′ ′ und daher supSn′ ≥ supSl = S. Wir erhalten also lim Sn′ = S. n≥1

n→∞

l≥1

F¨ ur n → ∞ geht daher die obere Schranke in (9) gegen Null; also ist lim s′n = s. Daher n→∞ hat jede andere Anordnung der Summe denselben Grenzwert. ⊓ ⊓ ⊔ ⊔ Die Reihen aus Beispiel 14.2 werden h¨aufig als sogenannte Majoranten benutzt, um die Konvergenz von Reihen zu zeigen und die Fehler der Teilsummen abzusch¨atzen. 14.5 Satz (Majorantenkriterium) a≥m sei eine Folge im Banachraum V , n ≥ m. Gibt es eine reelle Folge α>n mit kal k ≤ αl derart, daß

∞ X l=n

f¨ ur l > n

∞ ∞ X X αl konvergiert, so ist al absolut konvergent. F¨ ur die Summe s = al l=m

gilt dann die Fehlerabsch¨atzung

l=m

n ∞

X X

al ≤ αl .

s − l=m

Man nennt

P

(10)

l=n+1

αl eine konvergente Majorante von

Beweis. Die Betragsummen Sk =

k X l=1

P

al .

kal k

sind wegen Sk = Sk−1 + kak k ≥ Sk−1 monoton wachsend und bleiben wegen Sk =

k X l=1

nkal k +

k X

l=n+1

(10)

kal k ≤

n X l=1

kal k +

k X

l=n+1

αl ≤

n X l=1

kal k +

∞ X

αl

l=n+1

(unabh¨angig von k) beschr¨ankt, sind also nach Satz 10.6 konvergent. Also ist

∞ X

al absolut

l=m

konvergent. F¨ ur den Wert s der Summe gilt

∞ ∞ ∞ ∞ n n

X

X

X X X X





kal k ≤ al ≤ αl . ⊓ al − al = al =

s − ⊔ l=m

l=m

l=m

l=n+1

l=n+1

l=n+1

⊓ ⊔

241 14.6 Beispiel. Die Eulersche Zahl e ist durch die unendliche Reihe ∞ X 1 e := l! l=0

definiert. Wir sch¨atzen die Summanden al = 1/l! durch eine geometrische Folge ab: F¨ ur l ≥ n + 1 ist l! = n!(n + 1) · . . . · l ≥ n!(n + 1)l−n , also |al | =

(n + 1)n−l (n + 1)n l 1 1 ≤ = q mit q = < 1. l! n! n! n+1

Nach Satz 14.5 ist die Reihe also absolut konvergent und beim Abbrechen nach dem n-ten Glied macht man einen Fehler von h¨ochstens n+1 (n+1)n ∞ (n+1)n 1 X (n + 1)n l (5) n! q n+1 1 q = = n! nn+1 . |e − sn | ≤ = n! 1 − q n! · n n+1 l=n+1 F¨ ur n = 5 ist beispielsweise s5 =

1 1 1 1 1 1 43 + + + + + = 2 = 2.716666 · · · 1 1 2 6 24 120 60

und |e − s5 | ≤

1 1 = = 0.001666 · · · , 5! · 5 600

und da offensichtlich e ≥ s5 gilt, ist   43 1 43 , 2 + = [2.716666 · · · , 2.718333 · · ·] ⊆ [2.7166 , 2.7184] e∈ 2 60 60 600 Tats¨achlich ist e = 2.7182818 · · ·. Man kann die ak als sukzessive Korrekturen zu den Teilsummen sk =

k X

al

(11)

l=m

ansehen, denn es ist sk = sk−1 + ak . Dies legt nahe, daß im Fall der Konvergenz die al eine Nullfolge bilden. Das ist tats¨achlich der Fall, und falls die al gen¨ ugend schnell klein werden, reicht dies schon f¨ ur absolute Konvergenz: 14.7 Satz (i) Ist

∞ X l=m

(ii) Ist

∞ X l=m

al konvergent, so ist lim al = 0. l→∞

al absolut konvergent, so ist lim inf lkal k = 0. l→∞

242

KAPITEL 14. UNENDLICHE REIHEN

(iii) Gilt f¨ ur l → ∞

so ist

∞ X

  1 al = O 2 oder al = O(q l ) mit 0 ≤ q < 1, l

ak absolut konvergent.

k=0

Beweis. (i) Mit den Teilsummen (11) ist s := lim al = lim (sl − sl−1 ) = s − s = 0.

l→∞

∞ X

al = lim sk , also

l=m

k→∞

l→∞

(ii) Offensichtlich ist γ := lim inf lkal k ≥ 0. W¨are γ > 0, so w¨are lkal k ≥ γ/2 f¨ ur fast alle l→∞

l, also f¨ ur alle gen¨ ugend große n

kal k ≥

γ ≥ 2−n−2 γ f¨ ur 2n < l ≤ 2n+1 . 2l

(12)

Gilt (12) etwa f¨ ur n ≥ N , so ist M

2 X

l=2N +1

kal k =

M −1 X n=N

n+1 2X

l=2n +1

!

kal k



M −1 X n=N

n

−n−2

2 ·2

γ=

M −1 X n=N

γ γ = (M − N ). 4 4

Diese untere Schranke wird f¨ ur M → ∞ beliebig groß, also bleiben die endlichen Teilsummen der Normen nicht beschr¨ankt, im Widerspruch zur absoluten Konvergenz. Also ist γ = 0.  α (iii) Gilt al = O l12 , so gibt es eine Zahl α mit kal k ≤ lα2 ≤ l(l−1) f¨ ur gen¨ ugend große l, und P α ist eine konvergente Majorante (Beispiel 14.2(iii)). Gilt al = O(q l ), so gibt es eine l(l−1) P l Zahl α mit kal k ≤ αq l f¨ ur gen¨ ugend große l, und αq ist f¨ ur 0 ≤ q < 1 eine konvergente Majorante (Beispiel 14.2(ii)). Beidesmal folgt die absolute Konvergenz aus Satz 14.5. ⊓ ⊔ ⊓ ⊔

14.8 Bemerkungen. (i) Teil (ii) sagt, daß Reihen, bei denen die Summanden zu langsam, n¨amlich nur wie O( 1l ) gegen Null gehen, nicht absolut konvergent sein k¨onnen; Teil (iii) sagt, daß schon bei etwas schnellerer Konvergenz der Summanden gegen Null, n¨amlich wie O( l12 ], die absolute Konvergenz folgt. (ii) Aus (6) bzw. (5) und der Fehlerabsch¨atzung in Satz 14.5 folgt f¨ ur die Teilsummen im Fall (iii)   1 s = sn + O bzw. s = sn + O(q n ); n

243 falls man die Konstanten in den Landau-Symbolen kennt, kann man den Fehler auch genau  1 absch¨atzen. Ein Fehler von O n ist f¨ ur praktische Zwecke viel zu groß, da man f¨ ur hohe Genauigkeiten viel zuviele Summanden addieren muß. Ein Fehler O(q n ) ist akzeptabel, falls q nicht zu nahe bei 1 liegt. Als weitere Anwendung des Majorantenkriteriums beweisen wir: 14.9 Satz Sei α ≥ 0 , γ > α + β. Gilt kal+1 k αl + β ≤ f¨ ur l ≥ n, kal k αl + γ so ist die Reihe

∞ X

(13)

al absolut konvergent und f¨ ur den Grenzwert s gilt die Fehlerabsch¨atzung

l=m

ks −

n X l=m

al k ≤ kan k

αn + β . γ−β−α

(14)

Beweis. Wir setzen ql := (αl+β)/(αl+γ). Nach Voraussetzung ist ql ≥ 0 und kal+1 k ≤ kal kql f¨ ur l ≥ n, induktiv also kal k ≤ kan kqn · ... · ql−1 =: αl f¨ ur l > n.

(15)

Setzen wir bl := αl (αl + γ − α)/(γ − β − α)

und benutzen wir αl+1 = αl ql , so finden wir

bl+1 = αl+1 (αl + γ)/(γ − β − α) = αl (αl + β)/(γ − β − α), also bl − bl+1 Daher ist N X

αl =

l=n+1

  = αl (αl + γ − α) − (αl + β) /(γ − β − α) = αl .

N X

(bl − bl+1 ) = bn+1 − bN +1

l=n+1

αn+1 (αn + γ) − αN +1 (αN + γ) αn+1 (αn + γ) ≤ f¨ ur große N γ−β−α γ−β−α αn + γ = kan k . γ−β−α =

F¨ ur N → ∞ folgt ⊓ ⊔

∞ X

l=n+1

αl ≤ kan k

αn + γ . Nun folgt die Behauptung aus Satz 14.5 . ⊓ ⊔ γ−β−α

Es ist interessant, daß man (wie in Beispiel 14.6) den Fehler absch¨atzen kann, ohne die Teilsumme berechnet zu haben.

244

KAPITEL 14. UNENDLICHE REIHEN

Zum Nachweis der absoluten Konvergenz reichen die bisherigen S¨atze aus. Es gibt aber konvergente Reihen, die nicht absolut konvergieren, und f¨ ur diese bedingt konvergenten Reihen ist der Konvergenznachweis etwas schwieriger. Oft kann man die Summanden in ein Produkt zerlegen, al = αl bl , so daß der erste Faktor αl beschr¨ankt bleibt, aber ”oszilliert” (z.B. sich im Vorzeichen a¨ndert) und der zweite Faktor bl monoton gegen Null geht. Wir betrachten nur den 1-dimensionalen Fall V = K. 14.10 Proposition α≥m , b≥m seien Folgen aus K und n ≥ m. Gilt lim bl = 0

(16)

l→∞

und ist

N X αl ≤ α′ f¨ ur alle N ≥ n ,

(17)

l=n+1

∞ X

l=n+1

so konvergiert

∞ X

|bl − bl+1 | ≤ δ ′ ,

(18)

αl bl gegen s, und f¨ ur den Wert s der Summe gilt die Fehlerabsch¨atzung

l=m

n X αl bl ≤ α′ δ ′ . s −

(19)

l=m

Beweis. F¨ ur die Summen σN :=

N X

αl , δN :=

l=n+1

gilt

N X

l=n+1

σl − σl−1 = αl ,

|bl − bl+1 |, δ :=

∞ X

l=n+1

δl − δl−1 = |bl − bl+1 | ′

|σN | ≤ α ,

σn = δn = 0



δN ≤ δ ≤ δ ,

|bl − bl+1 |

f¨ ur l ≥ n,

(leere Summen).

sN :=

αl bl

l=m

eine Cauchy-Folge bilden. F¨ ur N ≥ M ≥ n erh¨alt man sN − sM

(21)

=

N X

l=M +1

=

(σl − σl−1 )bl =

σN bN +

N −1 X

l=M +1

=

σl bl −

σN bN − σM bM +1 +

N X

l=M +1 N −1 X

l=M +1 N −1 X

l=M +1

σl bl −

(21) (22) (23)

Wir m¨ ussen zeigen, daß die Teilsummen N X

(20)

N X

σl−1 bl

l=M +1

σl bl+1 − σM bM +1

σl (bl − bl+1 ).

245 Also ist |sN − sM | ≤ |σN ||bN | + |σM ||bM +1 | +

N −1 X

l=M +1

mit (22) also |sN − sM |

α′ |bN | + α′ |bM +1 | +

≤ (20)

N −1 X

|σl ||bl − bl+1 |,

l=M +1

(24)

α′ |bl − bl+1 |

α′ (|bN | + |bM +1 | + δN −1 − δM ).

=

F¨ ur M, N → ∞ geht diese Schranke gegen α′ (0 + 0 + δ − δ) = 0; also ist s≥m eine CauchyFolge und daher konvergent. F¨ ur M = n folgt aus (24) (23)

|sN − sn |



(20)

=



α |bN | + 0|bn+1 | +

N −1 X

l=n+1

α′ |bl − bl+1 |

α′ (|bN | + δN −1 ),

und f¨ ur N → ∞ ergibt sich wegen bN → 0 die Fehlerabsch¨atzung (19). ⊓ ⊔

⊓ ⊔

Zwei einfache Spezialf¨alle lohnt es sich zu merken: 14.11 Satz (i) Ist b≥m eine monoton fallende Nullfolge und sind die Teilsummen σn := schr¨ankt, so konvergiert

∞ X

n X

αl be-

l=m

αl bl .

l=m

(ii) (Leibniz-Kriterium) Ist b≥m eine monoton fallende Nullfolge, so konvergiert ∞ X (−1)l bl gegen einen Wert s mit l=m

n X |s − (−1)l bl | ≤ bn+1 , l=m

d.h. der Fehler beim Abbruch der Reihe ist h¨ochstens gleich dem ersten weggelassenen Glied. Beweis. (i) Hier ist

∞ X

l=n+1

|bl − bl+1 | =

mit δ ′ := bn+1 anwendbar.

∞ X

l=n+1

(bl − bl+1 ) = bn+1 − 0 = bn+1 , also ist Proposition 14.10

246

KAPITEL 14. UNENDLICHE REIHEN

(ii) Mit αl = (−1)l ist σn = (−1)m falls n − m gerade, σn = 0 falls n − m ungerade; also ist (i) anwendbar. Die Fehlerabsch¨atzung folgt aus Proposition 14.10 mit α′ = 1, δ ′ = bn+1 . ⊓ ⊔ ⊓ ⊔

14.12 Bemerkung. Im Fall des Leibniz-Kriteriums l¨aßt sich die Fehlerabsch¨atzung noch ¨ etwas verbessern (Ubungsaufgabe). Eine Reihe die das Leibniz-Kriterium erf¨ ullt, heißt alternierend. ∞ X (−1)l

ist alternierend, da bl = 1l monoton gegen Null l l=1 konvergiert. Also ist die Reihe konvergent. Die Reihe ist nur bedingt konverengt, da f¨ ur l al = (−1) /l die Beziehung lim inf l|al | = lim inf l/l = 1

14.13 Beispiel. Die Reihe

l→∞

l→∞

im Widerspruch zu Satz 14.7(ii) steht. Tats¨achlich kann man durch geschicktes Umordnen der Reihe Konvergenz zu einer beliebigen Zahl s′ erreichen: man summiert (der Gr¨oße nach) positive Terme, bis man zum ersten mal gr¨oßer wird als s′ , addiert dann negative Terme, bis man wieder kleiner als s′ ist, addiert dann wieder positive Terme, usw. . Da die Summe der positiven Terme allein und die der negativen allein beide divergieren, kann man das Verfahren immer weiter fortsetzen, und es ist nicht schwer zu zeigen, daß die so entstehende Anordnung der Reihe tats¨achlich gegen s′ konvergiert. Die Konvergenz nur bedingt konvergenter Reihen ist stets außerordentlich langsam, daher sind sie f¨ ur das praktisch Rechnen nicht geeignet. F¨ ur die Theorie sind sie aber unentbehrlich, z.B. sind die bei der harmonischen Analyse von Funktionen auftretenden Fourierreihen oft nur bedingt konvergent. Die genannten S¨atze reichen (zusammen mit den Folgerungen in den u ¨bungsaufgaben) aus, die meisten vorkommenden Summen auf Konvergenz oder absolute Konvergenz zu pr¨ ufen und ggf. beliebig genau (mit Fehlerangabe) zu berechnen. Als n¨achstes untersuchen wir, unter welchen Bedingungen man unendliche Reihen gliedweise addieren, multiplizieren, integrieren und ableiten darf. 14.14 Proposition Sind die Reihen ∞ X

al und

l=m

∞ X l=m

bl mit al , bl ∈ V

(absolut) konvergent und ist A ∈ Lin(V, W ) beschr¨ankt, so sind auch die Reihen ∞ X l=m

(al ± bl ) und

(absolut) konvergent, und es gilt

∞ X

Aal

l=m

∞ ∞ ∞ X X X (al ± bl ) = al ± bl , l=m

l=m

l=m

(25)

247 ∞ X

∞ X

Aal = A

!

al .

l=m

l=m

(26)

Beweis. Es ist ∞ X l=m

∞ X

(al ± bl ) = lim

n→∞

Aal = lim

n→∞

l=m

n X

n X l=m

(al ± bl ) = lim n X

Aal = lim A n→∞

l=m

al

l=m

!

n X l=m

n X

al ±

bl

l=m

!

n X

(∗)

= A lim

n→∞

=

al

l=m

!

∞ X l=m

al ±

=A

∞ X

l=m ∞ X

bl , !

al .

l=m

In (∗) wurde benutzt, daß A stetig ist (Satz 7.9). Also gilt (25) und (26). Im Fall der absoluten Konvergenz sind f¨ ur endliche Indexmengen L ⊆ {m, m + 1, . . .} die Teilsummen X X X kal ± bl k ≤ kal k + kbl k, l∈L

X l∈L

P

l∈L

kAal k ≤

beschr¨ankt, da kal k und absolut konvergent. ⊓ ⊔

P

X l∈L

l∈L

kAkkal k = kAk

X l∈L

kal k

kbl k beschr¨ankt sind. Also sind auch

P P (al ± bl ) und Aal ⊓ ⊔

Zur Diskussion von Ableitung und Integration von Reihen arbeiten wir im Banachraum B(D, W ) der beschr¨ankten Funktionen f : D −→ W oder im Banachraum C(D, W ) der beschr¨ankten stetigen Funktionen f : D −→ W , vgl. Satz 13.37(ii). X 14.15 Satz fJ sei eine abz¨ahlbare Familie in B(D, W ), und fJ sei absolut konvergent. l∈J

Dann gilt:

(i) F¨ ur alle x ∈ D ist die Reihe

X

fl (x) absolut und gleichm¨aßig konvergent, und es gilt

l∈J

X  X fl (x) = fl (x). l∈J

(ii) Sind alle fl stetig, so ist auch

X

(27)

l∈J

fl stetig.

l∈J

(iii) Sind alle fl in D stetig differenzierbar und ist auch auch

X

X

fl′ absolut konvergent, so ist

l∈J

fl in D stetig differenzierbar und es gilt

l∈J

 X ′ X fl = fl′ . l∈J

l∈J

(28)

248

KAPITEL 14. UNENDLICHE REIHEN

(iv) Ist [α, ω] ⊆ D und sind alle fl stetig in [α, ω], so konvergiert auch die Summe der Integrale absolut, und es ist Z ω X  XZ ω fl (x) dx. (29) fl (x)dx = l∈J

α

α

l∈J

Beweis. X X (i) Da kfl kD eine konvergente Majorante von fl (x) ist, ist diese Summe absolut l∈J

l∈J

konvergent. Mit einer Abz¨ahlung l≥1 von J konvergieren die Teilsummen sn := s :=

∞ X

flk =

k=1

X

n X

flk gegen

k=1

fl

(30)

l∈J

gleichm¨aßig, also auch punktweise, d.h. es gilt die Beziehung s(x) = lim sn (x) = lim n→∞

n→∞

n X

flk (x) =

k=1

∞ X k=1

flk (x) =

X

fl (x).

l∈J

Wegen (30) folgt (27). (ii) folgt mit sn statt fl aus Satz 13.37(i), (iii) ebenso aus Satz 13.38 und (iv) ebenso aus Satz 13.40(ii). ⊓ ⊔ ⊓ ⊔ Wieder sehen wir, daß man bei absoluter Konvergenz (diesmal in der Supremumsnorm k · kD ) gliedweise ableiten und integrieren darf. Bei nur bedingter Konvergenz oder absoluter Konvergenz in einer anderen Norm geht in der Regel die gleichm¨aßige Konvergenz verloren, und die Aussagen des Satzes werden falsch.

Die wichtigsten Funktionenreihen sind Potenzreihen, die wir als n¨achstes untersuchen. 14.16 Definition Eine unendliche Reihe der Form ∞ X l=0

al (x − x0 )l

(31)

mit x, x0 ∈ C und Koeffizienten al ∈ V heißt Potenzreihe (in x − x0 ). 14.17 Satz (i) Es gibt ein r ∈ R+ ∪ {∞}, so daß die Potenzreihe (31) f¨ ur alle x ∈ C mit |x − x0 | > r divergiert und f¨ ur alle x ∈ C mit |x − x0 | < r konvergiert.

249 (ii) In jedem Kreis B[x0 ; ρ] mit ρ < r konvergiert die Potenzreihe (31) absolut und gleichm¨aßig. (iii) Es gilt r = lim inf l→∞

p l kal k−1 ,

(32)

wobei Terme mit al = 0 wegzulassen sind. Sind alle gen¨ ugend großen al 6= 0, so gilt außerdem kal k kal k lim inf ≤ r ≤ lim sup . (33) l→∞ kal+1 k l→∞ kal+1 k r heißt der Konvergenzradius der Reihe, und der offene Kreis B(x0 ; r) ihr Konvergenzkreis; dies schließt die Grenzf¨alle r = 0, B(x0 ; r) = ∅ und r = ∞, B(x0 ; r) = C ein. Man beachte, daß der Satz auf dem Rand des Konvergenzkreises keine Aussage macht; im Fall der Konvergenz ist jedoch die Konvergenzgeschwindigkeit auf dem Rand f¨ ur die praktische Rechnung meist zu langsam. Beweis. Wir definieren r durch (32) und zeigen zun¨achst (ii). Dazu w¨ahlen wir ein s ∈ ]ρ, r[. Nach Definition von r gilt dann f¨ ur fast alle l die Ungleichung p s ≤ l kal k−1 , also kal ksl ≤ 1 ; also gilt kal k ≤

1 f¨ ur fast alle l . sl

F¨ ur x ∈ B := B[x0 ; ρ] ist daher l

l

l

kal (x − x0 ) k ≤ kal k · |x − x0 | ≤ kal kρ ≤

 ρ l s

(34)

f¨ ur fast alle l .

Also ist al (x − x0 )l = O(q l ) mit q = ρ/s < 1, und nach Satz 14.5(iii) ist die Reihe absolut konvergent. Mit den durch fl (x) := al (x − x0 )l definierten Funktionen fl : B −→ V ist auch  ρ l kfl kB = sup kal (x − x0 )l k ≤ = q l f¨ ur fast alle l , s x∈B also ist die Reihe in B[x0 ; ρ] sogar gleichm¨aßig konvergent. (F¨ ur ρ = r wird q = 1, weshalb man am Rand keine geometrische Majorante und daher h¨ochstens langsame Konvergenz hat.) (i) Ist |x − x0 | < r, so ist x ∈ B[x0 ; ρ] mit ρ = |x − x0 | < r, und die Reihe konvergiert nach dem eben Bewiesenen. Konvergiert die Reihe umgekehrt f¨ ur x ∈ C, so ist nach Satz 14.5(i) l l lim al (x − x0 ) = 0 , also kal (x − x0 ) k ≤ 1 f¨ ur fast alle l. Da (x − x0 )l ein skalarer Faktor l→∞

ist, folgt f¨ ur fast alle l auch

kal k · |x − x0 |l = kal (x − x0 )l k ≤ 1 , also |x − x0 | ≤

p l

kal k−1 .

Nach Definition von r gilt also |x − x0 | ≤ r. Also kann die Reihe f¨ ur |x − x0 | > r nicht konvergieren. (iii) Die Aussage (32) gilt nach Definition von r, und die Absch¨atzung (33) folgt aus dem folgenden Hilfssatz (mit αl := 1/kql k). ⊓ ⊓ ⊔ ⊔

250

KAPITEL 14. UNENDLICHE REIHEN

14.18 Proposition F¨ ur jede Folge α≥m positiver Zahlen gilt αl+1 l→∞ αl αl+1 lim sup αl l→∞ lim inf



√ lim inf l αl ,

(35)

√ lim sup l αl .

(36)

l→∞



l→∞

Beweis. r′ sei die linke Seite von (35). Ist s < r′ , so ist s ≤ αl+1 /αl f¨ ur fast alle l, etwa f¨ ur l ≥ n. Dann ist αl+1 ≥ αl s f¨ ur l ≥ n, also induktiv αl ≥ sl−n αn f¨ ur k ≥ n. Daher ist p p p √ lim inf l αl ≥ lim inf l sl−n αn = lim inf s l s−n αn = s lim l s−n αn = s l→∞

l→∞

l→∞

l→∞

√ (s−n αn ist konstant). Da s beliebig nahe an r′ gew¨ahlt werden kann, folgt lim inf l αl ≥ r′ . l→∞

Nach Definition von r′ ist das gerade (35). Ersetzen wir in (35) αk durch 1/αk , so erhalten wir .α .√ l+1 lim inf 1 ≤ lim inf 1 l αl , l→∞ l→∞ αl und wegen lim inf(1/βl ) = 1/ lim sup βl folgt (36). ⊓ ⊔

⊓ ⊔

14.19 Satz (i) Durch ∞ X

f (x) :=

l=0

al (x − x0 )l

(37)

wird im Konvergenzkreis D = B(x0 ; r) der Reihe eine Funktion f ∈ C ∞ (D, V ) mit f (x0 ) = a0 definiert. (ii) Es gilt ′

f (x) =

∞ X l=0

und f¨ ur reelle x0 , x1 gilt Z

x1

x0

l−1

lal (x − x0 )

=

∞ X l=0

(l + 1)al+1 (x − x0 )l ,

∞ ∞ X X al al−1 l+1 f (x)dx = (x1 − x0 ) = (x1 − x0 )l . l + 1 l l=0 l=1

(38)

(39)

(iii) Die Koeffizienten al bestimmen sich aus al =

f (l) (x0 ) l!

(l = 0, 1, . . .),

(40)

d.h. die Taylorentwicklung von f an der Stelle x0 stimmt mit der Potenzreihe u ¨ berein.

251 Beweis. Wie im Beweis von Satz 14.17 betrachten wir fl (x) = al (x − x0 )l . Die Summe P fl ist f¨ ur 0 < ρ < r auf B := B[x0 ; ρ] absolut und gleichm¨aßig konvergent. Nach Satz 14.11(ii,iv) ist die Summe (37) also in B stetig und integrierbar, und durch gliedweise Integration ergibt sich (39). Um zu zeigen, daß (37) auch gliedweise abgeleitet werden darf, muß man nachpr¨ ufen, daß auch die Reihe (38) absolut konvergent ist. Dazu berechnen wir kfl′ kB =

(34) sup klal (x − x0 )l−1 k ≤ sup lkal kρl−1 ≤ lρl−1 /sl .

|x−x0 |≤ρ

Mit q = ρ/s < 1 ist wegen q l = O( l13 ) also l 1 1 l kfl′ kB ≤ q l = O( 3 ) = O( 2 ), ρ ρ l l und nach Satz 14.5(iii) folgt die absolute Konvergenz von (38). Nach Satz 14.11(ii) ist f also in B = B[x0 ; ρ] stetig differenzierbar; da man ρ beliebig nahe an r w¨ahlen kann, also auch in B(x0 ; r) = D. Da die Ableitung (38) wieder eine Potenzreihe ist, ist auch f ′ wieder differenzierbar, und induktiv sieht man, daß f ∈ C ∞ (D, V ) ist, mit den h¨oheren Ableitungen f

(k)

(x) =

∞ X l=0

(l + 1) · ... · (l + k)al+k (x − x0 )l .

Setzt man hier x = x0 ein, so fallen alle Terme mit l > 0 weg und wir erhalten f (k) (x0 ) = 1 · ... · k ak = k! ak , woraus sich (40) ergibt. ⊓ ⊔

⊓ ⊔

Warnung. Umgekehrt braucht f¨ ur D ⊆ R die Taylorentwicklung einer Funktion f ∈ ∞ C (D, W ) nicht zu konvergieren. In vielen F¨allen ist der Konvergenzradius n¨amlich Null, d.h. die Summanden werden f¨ ur l → ∞ nicht oder nicht gen¨ ugend schnell klein. Und wenn die Taylorentwicklung konvergiert, konvergiert sie nicht einmal unbedingt gegen den entsprechenden Funktionswert! Man muß also zwischen einer konvergenten Potenzreihe und einer asymptotischen (Taylor-)Reihe unterscheiden! Eine asymptotische Reihe eignet sich in der Regel nur zur Approximation einer Funktion, indem man sie sp¨atestens dann abbricht, wenn die Betr¨age der Summanden wieder zu wachsen beginnen. Mit einer konvergenten Potenzreihe kann dagegen eine Funktion beliebig genau berechnet werden. F¨ ur reelle Potenzreihen mit komplexem Argument brauchen wir noch: 14.20 Proposition Sind x0 und alle al reell, so gilt f¨ ur die Funktion (37) im Konvergenzkreis f (x) = f (x). (41) Insbesondere ist f (x) f¨ ur reelle Argumente x reell.

252

KAPITEL 14. UNENDLICHE REIHEN

Beweis. Wegen der Stetigkeit der Konjugation ist f (x) = lim

n→∞

= lim

n→∞

n X l=0

n X l=0

al (x − x0 )l = lim

al (x − x0 )l =

n→∞

∞ X l=0

al (x − x0 )l =

n X

al (x − x0 )l

∞ X

al (x − x0 )l = f (x).

l=0

l=0

F¨ ur reelle x ist x = x, also f (x) = f (x), also f (x) reell.

⊓ ⊔

⊓ ⊔

Kapitel 15 Elementare Funktionen In diesem Kapitel definieren wir die wichtigsten elementaren Funktionen, n¨amlich die Exponentialfunktion, die allgemeine Potenz, die trigonometrischen Funktionen und ihre Umkehrfunktionen. Wir diskutieren Reihenentwicklungen, Funktionalgleichungen, asymptotisches Verhalten, Ableitung und Integration, und behandeln einige systematische Methoden f¨ ur die Integration von Ausdr¨ ucken, die elementare Funktionen enthalten. Außerdem definieren wir die Zahl π sowie Winkel und Polarkoordinaten. Die Exponentialfunktion spielt eine ganz fundamentale Rolle in den Anwendungen, da sie ¨ die einfachsten Wachstums- und Zerfallsprozesse beschreibt. Ist die Anderung einer Funktion y(t) proportional zu y(t) selbst, y(t) ˙ = αy(t),

(1)

so w¨achst ein Anfangswert y(0) = y0 > 0, falls α > 0, und er f¨allt, falls α < 0. Daher beschreibt (1) f¨ ur α > 0 einen Wachstumsprozeß und f¨ ur α < 0 einen Zerfallsprozeß. F¨ ur komplexe Werte von α wird sich zeigen, daß der Realteil von y(t) eine ged¨ampfte (Re α < 0) bzw. angefachte (Re α > 0) Schwingung beschreibt. Die L¨osung von (1) wird durch den folgenden Satz gegeben. 15.1 Satz (i) Das Anfangswertproblem y(t) ˙ = αy(t),

y(0) = y0

(2)

hat f¨ ur α ∈ C die eindeutige L¨osung y(t) = eαt y0 (t ∈ R), wobei ex :=

∞ X xl l=0

l!

(x ∈ C)

(3)

die sogenannte Exponentialfunktion exp : C → C mit exp(x) := ex definiert. (ii) Es gelten die Regeln d x e = ex , dx ex+y = ex ey , 253

(4) (5)

254

KAPITEL 15. ELEMENTARE FUNKTIONEN ex 6= 0 f¨ ur alle x ∈ C, e0 = 1,

e−x = 1/ex ,

(ex )k = exk ex = ex ,

f¨ ur k ∈ Z, |ex | = eRex .

(6) (7) (8) (9)

Beweis. (i) Nach Satz 14.17 konvergiert die Reihe im Konvergenzkreis mit Radius r ≥ lim inf l→∞

1/l! = lim inf (l + 1) = +∞ , l→∞ 1/(l + 1)!

also in ganz C, und in jedem Kreis B[x0 ; ρ] ist die Reihe absolut konvergent. Nach Satz 14.19 ist also e0 = 0!1 = 1 und ∞





X xl d x X lxl−1 X xl−1 e = = = = ex . dx l! (l − 1)! l! l=0 l=1 l=0 Also gilt (4). F¨ ur die durch y(t) := eαt y0 definierte Funktion y gilt y(t) ˙ = eαt αy0 = αy(t) 0 und y(0) = e y0 = y0 . Also l¨ost y das Anfangswertproblem (2). Nach Satz 13.45 ist die L¨osung eindeutig bestimmt. (ii) F¨ ur festes x hat die durch y(t) := ex+t definierte Funktion y die Ableitung y(t) ˙ = x+t x t x x+t t x e · 1 = y(t). Wegen y(0) = e folgt aus (i) mit α = 1 also y(t) = e e , also e =ee ; x −x daher gilt (5). Mit y = −x folgt aus (5) 1 = e e , also (6) und (7). Induktiv ergibt sich (8) f¨ ur k ≥ 0, denn aus (ex )k = exk folgt (5) (ex )k+1 = (ex )k ex = exk ex = exk+x = ex(k+1) ,

und f¨ ur k = −n < 0 ist ( 7) (ex )k = 1/(ex )n = 1/exn = e−xn = exk .

Schließlich folgt ex = ex¯ aus Proposition 14.20, und |ex |2 = ex ex = ex ex¯ = ex+¯x = e2Rex = (eRex )2 ergibt |ex | = ±eRex . Daß das positive Vorzeichen gilt, folgt aus der als N¨achstes zu beweisenden Ungleichung (10). ⊓ ⊔ ⊓ ⊔

255 15.2 Proposition F¨ ur reelle x ist ex reell, und es gilt ex > 0

f¨ ur x ∈ R ,

(10)

ex ≥ 1 + x

f¨ ur x ∈ R .

(11)

F¨ ur n ∈ N gilt außerdem ex > xn ,

falls x ≥ 4n2 ,

(12)

xn = o(ex ) , e−x = o(x−n )

f¨ ur x → ∞ .

(13)

Insbesondere gilt ex → +∞

ex → 0

f¨ ur x → +∞,

f¨ ur x → −∞.

Beweis. F¨ ur reelle x ist ex nach Proposition 14.20 reell, und direkt aus der Definition (3) folgen (10) und (11) falls x ≥ 0. F¨ ur x ≤ 0 ist ex = 1/e−x > 0, also gilt (10) allgemein und (11) auch f¨ ur x ≤ −1. F¨ ur −1 < x < 0 ist die Reihe (3) alternierend, nach Satz 14.11(ii) x x also |e − 1| ≤ |x| , e ≥ 1 − |x| = 1 + x; daher gilt auch (11) allgemein. (12) ergibt sich aus (11) wegen x

ex = e 2n

2n

  x n x 2n  x 2n ≥ 1+ ≥ xn f¨ ur x ≥ 4n2 , > = xn · 2 2n 2n 4n

und (13) folgt aus (12) wegen n −x x e 1 xn+1 1 = ur 4(n + 1)2 < x → ∞. ex x−n = x · ex < x → 0 f¨

Wegen (11) gilt ex → +∞ f¨ ur x → ∞, und wegen (7) dann ex = 1/e−x → 0 f¨ ur x → −∞. ⊓ ⊓ ⊔ ⊔ F¨ ur rein imagin¨are Argumente x = iϕ (ϕ ∈ R) folgt aus (9) die Beziehung |eiϕ | = e0 = 1; also liegen alle Zahlen eiϕ (ϕ ∈ R) auf dem komplexen Einheitskreis K = {z ∈ C| |z| = 1}, und aus der aus Kapitel 2 vertrauten Figur

256

KAPITEL 15. ELEMENTARE FUNKTIONEN

Imz

z = eiρ = cosρ + isinρ

sinρ

ρ cosρ Rez

z = eiϕ = cos ϕ + i sin ϕ entnimmt man die Beziehungen 1 1 cos ϕ = Re z = (z + z¯) = (eiϕ + e−iϕ ), 2 2 1 1 (z − z¯) = (eiϕ − e−iϕ ). 2i 2i Da wir die trigonometrischen Funktionen in Kapitel 3 nicht definiert hatten, holen wir das jetzt nach: sin ϕ = Im z =

15.3 Definition F¨ ur x ∈ C setzt man 1 cos x := (eix + e−ix ), 2

(′′ Cosinus von x′′ )

1 ix (e − e−ix ). (′′ Sinus von x′′ ) 2i F¨ ur n ∈ N0 benutzt man außerdem die Abk¨ urzungen sin x :=

cosn x := (cos x)n , sinn x := (sin x)n . 15.4 Proposition

(14) (15)

257 (i) F¨ ur beliebige x ∈ C gilt cos x =

∞ X

x2k , (2k)!

(16)

x2k+1 , (2k + 1)!

(17)

(−1)k

k=0

sin x =

∞ X

(−1)k

k=0

d sin x = cos x, dx cos(0) = 1,

d cos x = − sin x, dx sin(0) = 0,

cos(−x) = cos x,

sin(−x) = − sin x,

(ii) F¨ ur x ∈ R gilt

(18) (19) (20)

sin2 x + cos2 x = 1,

(21)

e±ix = cos x ± i sin x.

(22)

cos x = Re eix , sin x = Im eix ;

(23)

insbesondere sind cos und sin f¨ ur reelle Argumente reellwertig. (iii) Es gelten die Additionstheoreme cos(x + y) = cos x cos y − sin x sin y, cos 2x = 2 cos2 x − 1,

(24)

sin(x + y) = sin x cos y + cos x sin y, sin 2x = 2 sin x cos x.

(25)

Beweis. Nach Proposition 14.14 ist ix

−ix

e ±e

=

∞  X (ix)l l=0

(−ix)l ± l! l!



∞ X

xl = (i ± (−i) ) . l! l=0 l

l

Wegen i2k + (−i)2k = i2k + i2k = 2(−1)k , i2k+1 + (−i)2k+1 = i2k+1 − i2k+1 = 0 folgt (16) aus (14), und wegen i2k − (−i)2k = i2k − i2k = 0, i2k+1 − (−i)2k+1 = i2k+1 + i2k+1 = 2i(−1)k folgt (17) aus (15). Die u ¨brigen Formeln erh¨alt man direkt durch Einsetzen der Definitionen (¨ ubungsaufgabe!). ⊓ ⊓ ⊔ ⊔ P2n+1 (x) =

n X l=0

(−1)l

x2l+1 (2l + 1)!

258

KAPITEL 15. ELEMENTARE FUNKTIONEN

5

3

9

7

13

11

17

15

21

19

25

23

15.5 Satz Die Funktion sin hat im reellen Intervall ]0, 4[ genau eine Nullstelle, die Kreiszahl π. Es gilt eiπ = −1,

sin π2 = 1, sin π = 0, sin(x + π) = − sin x, sin(x + 2π) = sin x,  sin π2 − x = cos x.

e2πi = 1, π cos = 0, 2 cos π = −1, cos(x + π) = − cos x, cos(x + 2π) = cos x,

(26) (27) (28) (29) (30) (31)

Beweis. Die Potenzreihe f¨ ur sin x ist im Intervall ]0,2[ alternierend, denn f¨ ur k ≥ 1 ist 2k+1 2k−1 2 2 x /(2k + 1)! = x /(2k − 1)! · x /2k(2k + 1) und x /2k(2k + 1) ≤ 4/6 < 1. F¨ ur x ∈]0, 2[ x3 4x ist also | sin x − x| ≤ 6 < 6 < x, d.h. sin x > 0, und f¨ ur x = 1 folgt | sin x − 1| ≤ 61 , 2 7 < 0; also sin 1 ≥ 56 . Daraus folgt cos 2 = cos2 1 − sin2 1 = 1 − 2 · sin2 1 ≤ 1 − 2 56 = − 18 wegen cos 0 = 1 hat cos also in ]0,2[ einen Zeichenwechsel und daher eine Nullstelle. Wegen d cos x = − sin x < 0 ist cos in diesem Intervall streng monoton fallend, hat also genau dx ur x ∈]0, 4[ hat also sin genau eine eine Nullstelle. Wegen sin x = 2 sin x2 cos x2 und sin x2 > 0 f¨ Nullstelle π ∈]0, 4[, und es ist sin π = 0, cos π2 = 0. Wegen sin π2 > 0 und sin2 π2 + cos2 π2 = 1 folgt sin π2 = 1 und damit cos π = cos2 π2 − sin2 π2 = −1, eiπ = cos π + i sin π = −1. Also gelten (26) - (28), und die Formel (29) - (31) folgen daraus mit den Additionstheoremen. ⊓ ⊔ ⊔ ⊓

259

15.6 Satz (i) Die Funktion cos (bzw. sin) ist im Intervall [0, π] (bzw. [− π2 , π2 ]) streng monoton fallend (bzw. wachsend) und hat dort das Bild [−1, 1]. Die Umkehrfunktionen arccos : [−1, 1] → [0, π] von cos (”Arcus Cosinus”) und arcsin : [−1, 1] → [− π2 , π2 ] von sin (”Arcus Sinus”) sind ebenfalls streng monoton fallend (bzw. wachsend), und es gilt sin(arccos x) = cos(arcsin x) =



1 − x2 ,

(32)

−1 d arccos x = √ dx 1 − x2

f¨ ur|x| < 1 ,

(33)

d 1 arcsin x = √ dx 1 − x2

f¨ ur|x| < 1 ,

(34)

(ii) Die durch tan x := sin x/ cos x

(|x|
0 f¨ −1 bzw. sin(± π2 ) = ±1 und dem Zwischenwertsatz ist [−1, 1] das Bild von cos und sin auf den angegebenen Intervallen. Also existieren die Umkehrfunktionen und sind im Innern von [−1, 1] differenzierbar. (32) folgt aus sin2 x + cos2 x = 1 und der Positivit¨at von sin bzw. cos auf den Wertebereichen von arccos bzw. arcsin. Aus der Formel f¨ ur die Ableitung der Umkehrfunktion (Satz 5.32) ergibt sich

d 1 −1 −1 arccos x = = =√ , ′ dx cos (arccos x) sin(arccos x) 1 − x2 1 1 1 d arcsin x = = =√ . ′ dx sin (arcsin x) cos(arcsin x) 1 − x2

260

KAPITEL 15. ELEMENTARE FUNKTIONEN

(ii) F¨ ur x ∈] − π2 , π2 [ ist cos x > 0, also tan x definiert, und (36) ergibt sich mit d d tan x = dx dx



sin x cos x



=

cos x · cos x − sin x · (− sin x) cos2 x + sin2 x = , cos2 x cos2 x

indem man entweder den Z¨ahler vereinfacht oder mit dem Nenner k¨ urzt. Insbesondere ist tan streng monoton wachsend. Wegen cos x → 0 und sin x → ±1 f¨ ur x → ± π2 folgt tan x → ±∞ f¨ ur x → ± π2 , und nach dem Zwischenwertsatz ist das Bild von tan auf ] − π2 , π2 [ ganz R. Daher existiert die Umkehrfunktion arctan : R →] − π2 , π2 [, und es ist 1 1 1 d arctan x = = = . ⊓ ⊔ ′ 2 dx tan (arctan x) 1 + tan (arctan x) 1 + x2 ⊓ ⊔

15.7 Satz (Polarkoordinaten) (i) Jede komplexe Zahl x 6= 0 l¨aßt sich eindeutig in der Form x = reiϕ mit r > 0 , − π < ϕ ≤ π

(38)

r = |x| , ϕ = arg x (”Argument von x”)

(39)

schreiben; es ist mit

 arctan ab ,     π sgn b, 2 arg(a + ib) =  arctan ab + (sgn b)π,    π,

falls falls falls falls

a > 0, a = 0, a < 0 6= b, a < 0 = b.

(40)

(ii) Jeder Vektor x ∈ R2 \ {0} l¨aßt sich eindeutig in der Form x=

r cos ϕ r sin ϕ

!

mit r > 0,

−π 0, so ist |ϕ| < π2 , also ab = r sin ϕ/r cos ϕ = tan ϕ, also −b = arctan ab , wegen eiπ = −1 ϕ = arctan ab . Ist a < 0, so ist −x = reiψ mit ψ = arctan −a also x = rei(ψ±π) . Wegen −π < ϕ < π muß man also ϕ = ψ + π w¨ahlen, falls ψ ≤ 0 (d.h. b ≥ 0) ist, und ϕ = ψ − π falls ψ > 0 (d.h. b < 0) ist. Daraus folgt (40). Umgekehrt erf¨ ullen die durch (39) definierten r und ϕ die Beziehung (38). (ii) ergibt sich aus (i) wegen (43) mit a = x1 und b = x2 .

⊓ ⊔ ⊓ ⊔

15.8 Definition Der Winkel zwischen zwei Vektoren x, y ∈ Rn \ {0} ist < ) (x, y) := arccos

xT y . kxk2 kyk2

15.9 Bemerkung. (i) Wegen der Cauchy-Schwarz’schen Ungleichung ist das Argument des arccos aus [−1, 1]; der Winkel ist also wohldefiniert, und liegt in [0, π]. Das Gradmaß f¨ ur Winkel ist durch απ α Grad := 180

262

KAPITEL 15. ELEMENTARE FUNKTIONEN

festgelegt. (ii)Der Winkel h¨angt nur von den Richtungen von x, y ab: Ist x′ = αx, y ′ = βy mit α, β > 0, so gilt < ) (x′ , y ′ ) = < ) (x, y).  (iii) Ist x in Polarkordinaten (41) gegeben, so ist |ϕ| der Winkel zwischen x und y = 10 , d.h. der positiven x1 -Achse. 15.10 Satz (i) F¨ ur Re x > 0 definiert die Potenzreihe ∞ X q 2l+1 x−1 log x := 2 mit q = 2l + 1 x+1 l=0

(44)

eine C ∞ -Funktion log : {x ∈ C| Re x > 0} → C, den Logarithmus. (ii) F¨ ur Re x > 0 gilt 1 d log x = , dx x log ex = x f¨ ur − π2 < Im x < π2 , log x = log |x| + i arg x.

(45) (46) (47)

(iii) F¨ ur reelle x > 0 ist log x reell, und f¨ ur x, y ∈ R gilt ex = y ⇔ x = log y, (y > 0) log(xy) = log x + log y. (x, y > 0) Beweis. Die Reihe f (q) :=

∞ X

q

2l+1

/(2l + 1) =

l=0

hat den Konvergenzradius

∞ X l=0

(48) (49)

q (q 2 )l 2l + 1

2l + 3 q/(2l + 1) = lim = 1, l→∞ 2l + 1 l→∞ q/(2l + 3)

r = lim

stellt also f¨ ur |q 2 | < 1 eine C ∞ -Funktion dar. Die Ableitung ist eine geometrische Reihe, f ′ (q) =

∞ X l=0

(2l + 1)q 2l /(2l + 1) =

X

q 2l = 1/(1 − q 2 ).

F¨ ur Re x > 0 hat q := (1 − x)/(1 + x) das Betragsquadrat |q 2 | = |q|2 = qq =

x−1 x−1 xx − x − x + 1 |x|2 − 2Re x + 1 · = = 2 < 1, x+1 x+1 xx + x + x + 1 |x| + 2Re x + 1

263 also ist |q| < 1. Daher ist die Reihe (44) f¨ ur Re x > 0 absolut konvergent. Wegen ,  2 ! x − 1 f ′ (q) = 1/(1 − q 2 ) = 1 1− = (x + 1)2 /4x , x+1 q′ = ist

1 · (x + 1) − (x − 1) · 1 2 = 2 (1 + x) (1 + x)2

d d log x = 2f (q) = 2f ′ (q)q ′ = 1/x, dx dx

also gilt (45). F¨ ur ϕ := Im x ist ex = eRex+iϕ = eRex (cos ϕ+i sin ϕ), also ist Re ex = eRex cos ϕ > 0 f¨ ur|ϕ| < π x π/2. Daher ist durch g(x) := log e −x eine Funktion g im Streifen {x ∈ C| − 2 < Imx < π2 } definiert. Wegen g ′ (x) = (1/ex )ex −1 = 0 ist g(x) konstant, wegen g(0) = log(1) = 2f (0) = 0 ist also g(x) = 0. Daher gilt (46). Ist x reell und y = ex , so folgt log y = x; da die Exponentialfunktion im Reellen streng monoton wachsend ist (exp′ (x) = ex > 0), ist x = log y die einzige L¨osung von y = ex . Also gilt (48). Wegen elog(xy) = xy = elog x · elog y = elog x+log y folgt dann auch (49). Es bleibt noch zu zeigen, daß f¨ ur Re x > 0 die Gleichung (47) gilt. Dazu benutzen wir iϕ Polarkoordinaten x = re mit r = |x| und ϕ = arg x. Wegen Re x > 0 ist |ϕ| < π2 , also ist (46) mit log r + iϕ an Stelle von x anwendbar, und wir erhalten log r + iϕ

(46)

(5) = log(elog r+iϕ ) = log(elog r eiϕ ). (48) = log(reiϕ ) = log x.

⊓ ⊔

daher gilt (47). ⊓ ⊔ Als einfache Anwendung des Logarithmus erw¨ahnen wir 15.11 Proposition (Logarithmische Ableitung)

(i) Ist f ∈ F(R, R) in einer Umgebung von x ∈ R stetig differenzierbar und gilt f (x) 6= 0, so ist d f ′ (x) log |f (x)| = . (50) dx f (x) (ii) Ist f = f1 · . . . · fn und f (x) 6= 0, so ist f ′ (x) f ′ (x) f ′ (x) = 1 + ... + n . f (x) f1 (x) fn (x) Beweis.

(51)

264

KAPITEL 15. ELEMENTARE FUNKTIONEN

d d 1 (i) Ist f (x) > 0, so ist dx log |f (x)| = dx log f (x) = f (x) f ′ (x), also gilt (50) in diesem Fall. F¨ ur f (x) < 0 folgt dasselbe, indem man in (50) f durch −f ersetzt.

(ii) Es ist

d d f ′ (x) = log |f (x)| = log(|f1 (x)| · . . . · |fn (x)|) f (x) dx dx d f1′ (x) fn′ (x) = (log |f1 (x)| + . . . + log |fn (x)|) = + ... + . ⊔ dx f1 (x) fn (x) ⊓

(49)

⊓ ⊔

15.12 Satz Die f¨ ur reelle x > 0 und a ∈ C definierte Potenz xa := ea log x

(52)

d a x = axa−1 , dx

(53)

xa+b = xa xb ,

(54)

xab = (xa )b , x−a = 1/xa ,

(55)

(xy)a = xa y a ,

(56)

log xa = a log x,

(57)

|xa | = xRe a .

(58)

hat f¨ ur x, y > 0 die Eigenschaften

Beweis. (52) folgt aus d a d a log x a x = e = ea log x = aea log x /elog x = ae(a−1) log x = axa−1 , dx dx x und (54) aus xa+b = e(a+b) log x = ea log x+b log x = ea log x eb log x = xa xb . (55) folgt aus xab = eab log x = (ea log x )b = (xa )b ; die zweite Formel ist der Spezialfall b = −1.(56) folgt aus (xy)a = ea log(xy) = aa(log x+log y) = ea log x+a log y = ea log x ea log y = xa y a , und (57) aus log xa = log(ea log x ) = a log x. Schließlich ist |xa | = |aa log x | = eRe (a log x) = e(Re a) log x = xRe a , da log x reell ist; also gilt (58). ⊓ ⊓ ⊔ ⊔

15.13 Proposition

265 (i) Es gelten die Ungleichungen x−1 x

≤ log x ≤ x − 1 (1 + x)s ≥ 1 + sx

falls x > 0, falls x ≥ −1, s ≥ 1.

(59) (60)

(ii) F¨ ur x → ∞ gilt

(iii) F¨ ur x → 0 gilt

(iv) F¨ ur s, α > 0 gilt

log x → +∞,    ∞ s x → 1   0

(61) falls s > 0, falls s = 0, falls s < 0.

(62)

log x → − ∞,    0 falls s > 0, s x → 1 falls s = 0,   ∞ falls s < 0.

(63)

log x = o(x−s ) f¨ ur x → 0, log x = o(xs ) f¨ ur x → ∞, s αx x = o(e ) f¨ ur x → ∞.

(65) (66) (67)

(64)

Beweis. (i) Setze y := log x. Dann ist x = ey ≥ 1 + y, also y ≤ x − 1 und 1/x = e−y ≥ 1 − y, also y ≥ 1 − 1/x = (x − 1)/x. Daraus folgt (59). (60) ist klar f¨ ur x = −1 oder s = 1. F¨ ur x > −1, s > 1 setzen wir f (x) := (1 + x)s − 1 − sx.

Dann ist f ′ (x) = s(1 + x)s−1 − s, f ′′ (x) = s(s − 1)(1 + x)s−2 > 0. Also ist f ′ streng monoton wachsend. Wegen f ′ (0) = 0 ist also f ′ (x) < 0 f¨ ur −1 < x < 0 und f ′ (x) > 0 f¨ ur x > 0. f f¨allt also f¨ ur x < 0 und w¨achst f¨ ur x > 0, und hat daher sein Minimum bei x = 0. Also ist f (x) ≥ f (0) = 0, und nach Definition von f ergibt sich (60). (ii-iii) (61) und (63) gelten, da die Umkehrfunktion ey monoton wachsend, positiv und unbeschr¨ankt ist. (62) und (64) folgen damit aus xα = eα log x . (iv) F¨ ur ε > 0 ist log ε − s log x = log(εx−s ) ≤ εx−s − 1 nach (59), f¨ ur 0 < x < 1 gilt also xs xs (−s log x) ≤ (εx−s − 1 − log ε) s s s = (ε − (1 + log ε)x )/s.

|xs log x| = −xs log x =

266

KAPITEL 15. ELEMENTARE FUNKTIONEN

Daher ist lim sup |xs log x| ≤ ε/s, und da ε > 0 beliebig war, folgt x→0

lim xs log x = 0

x→0

f¨ ur s > 0.

(68)

Daraus folgt (65). Ersetzt man x durch x−1 , so folgt wegen log x−1 = − log x auch lim x−s log x = 0 f¨ ur s > 0,

(69)

x→∞

also gilt (66). Spezialisiert man (66) auf s = 1, so folgt log x ≤ εx f¨ ur gen¨ ugend große x, so daß dann 0 ≤ xs /eαx = es log x−αx ≤ e(sε−α)x (70) gilt. W¨ahlen wir speziell ε ∈ ]0, α/s[, so ist sε − α < 0, und die Schranke in (70) geht f¨ ur x → ∞ gegen Null. Daraus folgt (67). ⊓ ⊔

⊓ ⊔ Als Anwendung beweisen wir eine Absch¨atzung f¨ ur n!, die in der statistischen Mechanik und der Wahrscheinlichkeitstheorie eine wichtige Rolle spielt. 15.14 Satz (Stirlingsche Formel) Es gilt log n! = n log n − n + R(n)

(71)

mit 1 ≤ R(n) ≤ 1 + log n. Beweis. Setzt man x =

k+1 k

in (59) ein, so ergibt sich

1 k+1

≤ log k+1 ≤ k1 , also k

k(log(k + 1) − log k) ≤ 1 ≤ (k + 1)(log(k + 1) − log k). Summieren ergibt n−1≥

n−1 X k=1

k(log(k + 1) − log k) =

= n log n − und n−1≤

n X k=1

k=2

k=1

log k = n log n − log n!

n−1 n n−1 X X X (k + 1)(log(k + 1) − log k) = k log k − (k + 1) log k k=1

k=2

= (n + 1) log n − also

n n−1 X X (k − 1) log k − k log k

n X k=1

k=1

log k = (n + 1) log n − log n!,

1 ≤ log n! − n log n + n ≤ 1 + log n. ⊓ ⊔

⊓ ⊔

267 15.15 Bemerkung. Genauer kann man f¨ ur das Restglied die Formel R(n) =

1 log(2πn) + o(1) f¨ ur n → ∞ 2

zeigen (s. etwa Forster I, §20, Satz 6). 15.16 Satz (Binomische Reihe) . F¨ ur |x| < 1 und s ∈ C gilt s

(1 + x) =

∞   X s l=0

l

xl .

(72)

(Also ist die asymptotische Entwicklung aus Beispiel 5.48 f¨ ur kleine x konvergent.) Beweis. Durch (72) ist eine Potenzreihe mit Konvergenzradius  .  l + 1 s s = lim = 1, r = lim (73) l→∞ l l + 1 l→∞ s − l definiert, also eine Funktion

g(x) :=

∞   X s l=0

l

xl

von B(0; 1) nach C. Hierbei benutzten wir in (73) die Relation     s s = (l + 1) (s − l) l+1 l (Aufgabe 19(i) vom letzten Semester). Mit dieser Relation erhalten wir auch   ∞   ∞    X s s s l X l + (l + 1) xl s g(x) = s x = l l + 1 l l=0 l=0 ∞   ∞   X X s s l−1 l l−1 = l (x + x ) = (1 + x) l x = (1 + x)g ′ (x). l l l=0 l=0

Daher hat die Funktion

f (x) := (1 + x)−s g(x)

(74)

die Ableitung f ′ (x) = −s(1 + x)−s−1 g(x) + (1 + x)−s g ′ (x) = −(1 + x)−s−1 (1 + x)g ′ (x) + (1 + x)−s g ′ (x) = 0.  ur alle x. f (x) ist also konstant, und wegen f (0) = g(0) = 0s = 1 gilt f (x) = 1 f¨ s Einsetzen in (74) ergibt (1 + x) = g(x), also die Behauptung. ⊓ ⊔

⊓ ⊔

Die in diesem Kapitel hergeleiteten Ableitungsformeln ergeben durch Umkehrung Formeln R f¨ ur die Stammfunktionen f (x)dx einiger wichtiger Funktionen f (x):

268

KAPITEL 15. ELEMENTARE FUNKTIONEN

15.17 Beispiele. (Grundformeln fu ¨ r Integrale) Z Z (x − α)s+1 dx s (x − α) dx = f¨ ur s 6= −1, = log |x|, s+1 x Z Z dx dx √ = arctan x, = arcsin x, 2 Z 1+x Z1 − x2 sin xdx = − cos x, cos xdx = sin x, Z Z dx = tan x ex dx = ex , cos2 x

Entsprechende Regeln gelten f¨ ur bestimmte Integrale, vorausgesetzt, die Integranden sind im Integrationsintervall definiert. Mit Hilfe dieser Formeln und der folgenden Spezialf¨alle der Substitutionsregel: Z ′ f (x) dx = log |f (x)| f (x)

(f¨ ur reelle f ) und

Z

erh¨alt man die weiteren Formeln Z

1 f (px + q)dx = p

Z

f (x)dx

dx = log |x − α| (α ∈ R), x−α Z √ dx √ = log x + x2 + α , 2 x +α Z 1 x−α dx = arctan , 2 2 (x − α) + β β β Z (x − α)dx 1 = log((x − α)2 + β 2 ). 2 2 (x − α) + β 2 Insbesondere reichen diese Formeln aus, um beliebige rationale Funktionen zu integrieren. Mit Hilfe der Partialbruchzerlegung (siehe Kap.12) kann man n¨amlich jede rationale Funktion als Linearkombination einfacher (komplexer) rationaler Funktionen der Form (x − α)s (α ∈ C, s ∈ Z) schreiben, und diese mit Hilfe von  (x − α)s+1   Z f¨ ur s 6= −1,  s+1 s (x − α) dx = log |x − α| f¨ ur s = −1, Im α = 0,    Re α − x log |x − α| + i arctan Im α f¨ ur s = −1, Im α 6= 0

integrieren. Will man die komplexe Zwischenrechnung vermeiden, so kann man reelle rationale Funktionen, deren komplexe Nullstellen alle verschieden sind, als Linearkombination reeller Ausdr¨ ucke der Form x−α 1 , (x − α)s , (x − α)2 + β 2 (x − α)2 + β 2 schreiben und diese ebenfalls nach obigen Formeln integrieren.

269 15.18 Beispiel. Zur Berechnung von Z 1 0

x4 dx 1 + x + x 2 + x3

muß man zun¨achst die Partialbruchzerlegung von x4 /(1 + x + x2 + x3 ) finden. Dazu zerlegt man den Nenner in Faktoren, d.h. man muß die Nullstellen xi des Nenners finden und der Reihe nach die Faktoren x − xi oder bei komplexen Nullstellen xi = α + iβ die Faktoren (x − α)2 + β 2 abdividieren. In unserem Fall findet man durch Probieren die Nullstelle x1 = −1, also den Faktor x + 1, und erh¨alt 1 + x + x2 + x3 = (x + 1)(x2 + 1). Der Faktor x2 + 1 hat die konjugiert komplexen Nullstellen ±i, l¨aßt sich also reell nicht weiter zerlegen. Da der Z¨ahlergrad um 1 h¨oher ist als der Nennergrad, muß man f¨ ur die Partialbruchzerlegung den Ansatz x4 c d ex = ax + b + + + 1 + x + x 2 + x3 x + 1 x2 + 1 x2 + 1 machen (zu quadratischen Faktoren geh¨oren immer zwei Terme!). Multiplikation mit dem Hauptnenner 1 + x + x2 + x3 = (x + 1)(x2 + 1) ergibt x4 = a(x + x2 + x3 + x4 ) + b(1 + x + x2 + x3 ) + c(x2 + 1) + d(x + 1) + e(x2 + x), und durch Koeffizientenvergleich entsprechender Potenzen von x findet man 1 = a, 0 = a + b, 0 = a + b + c + e, 0 = a + b + d + e, 0 = b + c + d. Dieses lineare Gleichungssystem l¨aßt sich leicht l¨osen und ergibt 1 1 1 a = 1, b = −1, c = , d = , e = − . 2 2 2 F¨ ur das Integral erh¨alt man also Z 1 Z 1 x4 1/2 1/2 x/2 dx = (x − 1 + + − )dx 2 3 x + 1 x2 + 1 x2 + 1 0 1+x+x +x 0 =



1 1 1 1 x2 2 − x + log|x + 1| + arctanx − log(x + 1) 2 2 2 4 0

1 1 1 1 1 = (− + log2 + arctan1) − ( log1 + arctan0) 2 4 2 4 2 1 1 1 = − + log2 + arctan1 ≈ 0.066. 2 4 2 Viele weitere Integrale lassen sich explizit berechnen und sind in Integraltafeln zusammengestellt (z.B. Bronstein, Kap 1.1.3). Eine wichtige, nicht ”elementar” darstellbare Funktion ist durch das Gaußsche Fehlerintegral Z t 1 2 e−x /2 dx Φ(t) := √ 2π −t definiert; wie wir noch sehen werden, ist der Faktor so gew¨ahlt, daß lim Φ(t) = 1 ist. In der t→∞ Praxis rechnet man Integrale, die man in den Tafeln nicht findet, in der Regel mit Verfahren der numerischen Mathematik aus.

270

KAPITEL 15. ELEMENTARE FUNKTIONEN

Kapitel 16 Hilbertr¨ aume In diesem Kapitel behandeln wir Skalarprodukt, bras und kets Cauchy-Schwarz’sche Ungleichung, kxk2 , L¨ange, Winkel

abgeschlossene und vollst¨andige Unterr¨aume, Hilbertraum orthogonale Projektion

orthogonale Polynome, Legendre-Polynome; Gaußquadratur; Hermite-Polynome Isometrien, Rotation, Spiegelung, orthogonale Gruppe, Euler-Winkel, QR-Zerlegung adjungierte Abbildungen

271

272

¨ KAPITEL 16. HILBERTRAUME

Kapitel 17 Periodische Funktionen In diesem Kapitel zeigen wir, wie sich fast beliebige periodische Funktionen als sogenannte Fourierreihen schreiben lassen, d.h. als Linearkombination geeigneter Exponentialfunktionen. Diese harmonische Analyse periodischer Funktionen ist sehr wichtig f¨ ur die Anwendungen in Physik und Technik. Außerdem zeigen wir, wie periodische Funktionen als L¨osung gewisser Differentialgleichungen entstehen, und behandeln insbesondere ged¨ampfte Schwingungen und das Ph¨anomen der Resonanz. 17.1 Definition (i) Eine Funktion f : K → V heißt periodisch mit der Periode T , falls T 6= 0 und f (x + T ) = f (x) f¨ ur alle x ∈ K. Dann ist offensichtlich auch f (x + kT ) = f (x) f¨ ur x ∈ K, k ∈ Z .

(1)

Ist T > 0, so heißt die Zahl ω := 2π/T

(2)

die Kreisfrequenz der Funktion (und der Periode). (ii) F¨ ur x, y ∈ K schreiben wir x ≡ y mod T

(”x kongruent y modulo T ”),

falls x − y durch T teilbar ist, d.h. (x − y)/T ganzzahlig ist, andernfalls x 6≡ y mod T

(”inkongruent”).

17.2 Proposition (i) Die Funktion sin und cos sind periodisch mit der Periode 2π. (ii) Die Exponentialfunktion ist periodisch mit der Periode 2πi. (iii) Konvergieren die Funktionen fl : K → V (l = 0, 1, . . .) punktweise gegen f , und sind alle fl periodisch mit Periode T , so ist auch f periodisch mit Periode T . 273

274

KAPITEL 17. PERIODISCHE FUNKTIONEN

(iv) F¨ ur ω ∈ R ist jede Funktion f : R → V mit f (x) =

N X

eikωx ck

(x ∈ R)

k=−N

(3)

periodisch mit Kreisfrequenz ω. Beweis. (i) und (ii) folgen sofort aus Satz 15.5, und (iii) gilt wegen f (x + T ) = lim fl (x + T ) = lim fl (x) = f (x) . l→∞

l→∞

(iv) F¨ ur T = 2π/ω gilt: f (x + T )

=

N X

ikω(x+T )

e

ck

=

k=−N

=

N X

N X

eikωx+2πik ck

k=−N

ikωx

e

2πi k

(e

) ck

=

k=−N

N X

k=−N

eikωx ck = f (x). ⊓ ⊔ ⊓ ⊔

Aussage (iii) der Proposition motiviert, in der endlichen Summe (3) die Zahl N gegen ∞ gehen zu lassen. Im Fall der Konvergenz ist die entstehende Funktion wieder periodisch mit Kreisfrequenz ω. 17.3 Definition Eine konvergente unendliche Reihe der Form f (x) =

∞ X

k=−∞

eikωx ck := lim

N →∞

N X

eikωx ck

(4)

k=−N

heißt Fourierreihe. Die Koeffizienten ck (k ∈ Z) heißen die Fourierkoeffizienten von f . W¨ahrend es wegen Proposition 17.2 (iii) klar ist, daß (4) im Fall der Konvergenz eine periodische Funktion darstellt, ist es nicht offensichtlich, welche periodischen Funktionen sich umgekehrt in der Form (4) darstellen lassen. Da in der Praxis unstetige, periodische Schaltprozesse eine Rolle spielen, betrachten wir Funktionen, die ”st¨ uckweise” gewisse Eigenschaften haben. 17.4 Definition (i) Eine Funktion f : [a, b] → V heißt stu ¨ ckweise monoton, falls es endlich viele Punkte a = a0 , a1 , ..., am = b gibt, so daß f in jedem Intervall ]al−1 , al [ (l = 1, ..., m) monoton wachsend oder monoton fallend ist.

275 (ii) f : [a, b] → V heißt stu ¨ ckweise stetig, falls es endlich viele Punkte a = a0 , a1 , ..., am = b gibt, so daß f in jedem Intervall ]al−1 , al [ (l = 1, ..., m) stetig ist und die Grenzwerte lim

x→al−1 +0

f (x) und lim f (x) x→al −0

existieren. (iii) f : [a, b] → V heißt stu ¨ ckweise k-mal stetig differenzierbar, falls es endlich viele Punkte a = a0 , a1 , ..., am = b gibt, so daß f in jedem Intervall ]al−1 , al [ (l = 1, ..., m) k-mal stetig differenzierbar ist und die Grenzwerte lim

x→al−1 +0

f (k) (x) und lim f (k) (x) x→al −0

existieren. (iv) Eine periodische Funktion f : R → V mit Periode T > 0 heißt stu ¨ ckweise monoton (bzw. stetig, bzw. k-mal stetig differenzierbar), falls f diese Eigenschaft im Intervall [0, T ] besitzt. 17.5 Satz (Dirichlet) f : R → V sei st¨ uckweise stetig und st¨ uckweise monoton. Ist f periodisch mit Periode T > 0 und Kreisfrequenz ω = 2π/T und gilt f (x + h) + f (x − h) f¨ ur alle x ∈ R, h→0 2

f (x) = lim

(5)

so l¨aßt sich f in eine Fourierreihe (4) entwickeln, und die Koeffizienten sind eindeutig durch Z 1 T −ikωx e f (x)dx (6) ck = ck (f ) := T 0 bestimmt. Die Reihe (4) konvergiert gleichm¨aßig in jedem abgeschlossenen Intervall, in dem f stetig ist. Der Beweis ist schwierig und soll weggelassen werden. Statt dessen beweisen wir eine einfachere Version, die sch¨arfere Voraussetzungen macht, daf¨ ur aber auch genauere Konvergenzaussagen enth¨alt. Wir brauchen dazu eine vorbereitende Aussage: 17.6 Proposition Ist f st¨ uckweise stetig differenzierbar, so gilt 1 ck (f ) = O( ) , k ck (f ′ ) = ikω ck (f ) .

(7) (8)

Beweis. (i) Die Unstetigkeitsstellen von f ′ (und damit evtl. auch von f ) seien bei 0 = x0 < x1 < . . . < xn = T . Aus (6) folgt dann n Z xl X T ck = e−ikωx f (x)dx. l=1

xl−1

276

KAPITEL 17. PERIODISCHE FUNKTIONEN

Mit partieller Integration folgt daraus !  −ikωx xl Z xl −ikωx n X e e T ck = f (x) f ′ (x)dx . − −ikω −ikω xl−1 xl−1 l=1 Wegen |e−ikωx | = 1, | − i| = 1 k¨onnen wir dies absch¨atzen durch ! Z xl n X |f (xl )| + |f (xl−1 )| |f ′ (x)| T |ck | ≤ + dx |kω| xl−1 |kω| l=1 !   Z xl n 1 1 X ′ |f (xl )| + |f (xl−1 | + |f (x)|dx = O , = |k|ω l=1 k xl−1 da die letzte Summe von k unabh¨angig ist. Also gilt (7). (ii) Partielle Integration von (6) ergibt ck = (∗)

=

1 T

Z

T

c

−ikωx

0

1 1 ikω T

Z

1 f (x)dx = T

T



e−ikωx f (x) −ikω

e−ikωx f ′ (x)dx =

0

T 0

1 − T

1 ck (f ′ ) . ikω

Z

T

0

e−ikωx ′ f (x)dx −ikω

Dabei wurde in (∗) benutzt, daß e−ikωx und f periodisch mit Periode T sind, so daß der erste Term wegf¨allt. Also gilt (8). ⊓ ⊔ ⊓ ⊔ Unter st¨arkeren Voraussetzungen an die Glattheit von f klingen die ck (f ) st¨arker ab, und man kann die absolte Konvergenz der Fourierreihe zeigen. Dies erlaubt großz¨ ugigere Umformungen. 17.7 Satz F¨ ur ein s ≥ 0 sei f : R → V s-mal stetig differenzierbar und st¨ uckweise (s+2)mal stetig differenzierbar. Ist f periodisch mit Periode T > 0 und Kreisfrequenz ω = 2π/T , so besitzt f eine absolut und gleichm¨aßig konvergente Fourierreihe (4) mit eindeutig bestimmten Fourierkoeffizienten (6). Außerdem gilt   1 f¨ ur k → ±∞. (9) ck = O k s+2 Beweis. Wir f¨ uhren den Beweis in vier Teilschritten. (i) Eindeutigkeit. Ist die Reihe (4) absolut und gleichm¨aßig konvergent, so erh¨alt man durch Multiplikation mit e−ijωx und Integration die Formel Z

0

T −ijωx

e

f (x)dx =

∞ Z X

k=−∞

0

T i(k−j)ωx

e



dx ck .

277 Wegen

Z

T ilωx

e

0

eilωx T e2πil − 1 dx = = 0 f¨ ur l ∈ Z \ {0} = ilω 0 ilω

(10)

fallen die Terme mit k 6= j weg, und wir erhalten Z T  Z T −ijωx 0 e f (x)dx = e dx cj = T cj , 0

0

also gilt (6), und die Koeffizienten sind eindeutig bestimmt. (ii) Wir zeigen nun induktiv, daß f¨ ur die durch (6) definierten Fourierkoeffizienten die Beziehung (9) gilt. F¨ ur s = 0 ist ck (f ′ ) = O( k1 ) nach (7) f¨ ur f ′ statt f , nach (8) also ck (f ) = ck (f ′ )/ikω = O( k12 ). Daher gilt (9) f¨ ur s = 0. Aus der Induktionsannahme, daß (9) unter den entsprechenden Voraussetzungen an f f¨ ur s − 1 statt s gilt, folgt nun f¨ ur s ≥ 0 die Beziehung   1 ′ . ck (f ) = O k s+1 Wieder nach (8) gilt also 1 1 ck = ck (f ′ ) = O ikw ikω



1 k s+1



=O



1 k s+2



.

Also gilt (9) allgemein. (iii) Konvergenz der Reihe (4). F¨ ur die durch fk (x) := eikωx ck definierte Funktionenfolge ikωx gilt |fk (x)| = |e ||ck | = |ck |, also   1 . kfk k = sup |fk (x)| = |ck | = O k2 x∈R Nach Satz 14.7(iii) fogt die absolute und gleichm¨aßige Konvergenz. (iv) Um zu zeigen, daß der Grenzwert wirklich f (x) ist, berechnen wir den Fehler rN (z) :=

N X

k=−N

eikωz ck − f (z)

(11)

der abgebrochenen Fourierreihe an einer festen Stelle z ∈ [0, T ]. Wegen (10) k¨onnen wir f (z) in der Form Z T  N X ikωz 1 −ikωx f (z) = e e dx f (z) T 0 k=−N

schreiben, da in der Summe rechts die Terme mit k 6= 0 verschwinden und der Summand f¨ ur k = 0 sich zu 1 · T1 T f (z) = f (z) vereinfacht. Setzen wir dies in (11) ein und benutzen

278

KAPITEL 17. PERIODISCHE FUNKTIONEN

wir die Definition (6) f¨ ur die ck , so finden wir N X

  Z 1 T −ikωx rN (z) = ck − e e dxf (z) T 0 k=−N Z T N X ikωz 1 = e e−ikωx (f (x) − f (z))dx T 0 k=−N ! Z N 1 T X ikω(z−x) = e (f (x) − f (z))dx. T 0 k=−N ikωz

F¨ ur z ≡ x mod T verschwindet der Integrand, und sonst l¨aßt sich die Summe als endliche geometrische Reihe aufsummieren. Wir erhalten also Z 1 T ei(N +1)ω(z−x) − e−iN ω(z−x) (f (x) − f (z))dx. rN (z) = T 0 eiω(z−x) − 1 Substituieren wir t = x − z, und schreiben  f (t + z) − f (z)    e−iωt − 1 g(t) :=    f ′ (z) −iω

so erhalten wir

1 rN (z) = T

Z

T −z

−z

falls t 6≡ 0 mod T, falls t ≡ 0 mod T,

(e−i(N +1)ωt − eiN ωt )g(t)dt.

Da g(t) und eikωt (k ∈ Z) periodisch mit Periode t sind, kann man das Integral auch von 0 bis T laufen lassen, und wir finden rN (z) = cN +1 (g) − c−N (g).

(12)

Da f st¨ uckweise 2-mal stetig differenzierbar ist, ist g noch st¨ uckweise stetig differenzierbar. (F¨ ur t → 0 muß man einmal die Regel von l’Hospital anwenden, verliert also eine Differenzierbarkeitsordnung.) Nach (ii) folgt daraus immer noch |ck (g)| = O( k1 ), und wegen (12) folgt rN (z) = O( N1 ) → 0 f¨ ur N → ∞. Also konvergiert die Reihe f¨ ur x = z tats¨achlich gegen f (z). ⊓ ⊔ ⊓ ⊔

17.8 Beispiele. Viele praktisch relevante periodische Funktionen entstehen durch periodische Fortsetzung einer stetigen Funktion g : [0, T ] durch die Definition ( g(x − kT ) falls 0 < x − kT < T, k ∈ Z, f (x) = (13) 1 (g(0) + g(T )) falls x = kT, k ∈ Z. 2

279 Im Fall der Unstetigkeit beim Aneinandersetzen sorgt die Definition in (13) daf¨ ur, daß an den Nahtstellen die Dirichletbedingung (5) erf¨ ullt ist. In den folgenden Beispielen messen wir die unabh¨angige Variable in Vielfachen der Kreisfrequenz, so daß also o.B.d.A. ω = 1 und daher T = 2π ist. Wir betrachten zun¨achst die aus    a 0 ≤ x < π, g1 (x) = (14) 0 x = π,   −a π < x ≤ 2π durch periodische Fortsetzung entstehende unstetige Funktion f1 . Es ist

f(x)

x

ck

Z π  Z 2π Z 2π a 1 −ikx −ikx −ikx e g1 (x)dx = e dx e dx − = 2π 0 2π π 0   a e−ikπ − 1 e−ik2π − e−ikπ − = 2π −ik −ik ( 0 f¨ ur gerade k, a (1 − (−1)k ) = = ikπ 2a/ikπ f¨ ur ungerade k = ±(2l + 1).

Also ist ck = O( k1 ), wie nach (9) zu erwarten war, da f nicht stetig ist, also s = −1. Aus dem Satz 17.5 von Dirichlet erhalten wir ∞ ∞ X X  ikωx f1 (x) = e ck = c0 + eikωx ck + e−ikωx c−k = =

k=−∞ ∞  X

i(2l+1)x

e

l=0 ∞ X l=0

also

k=1

2a 2a + e−i(2l+1)x i(2l + 1)π −i(2l + 1)π



ei(2l+1)x − e−i(2l+1)x 4a , (2l + 1)π 2i

f1 (x) =

∞ X l=0

4a sin(2l + 1)x. (2l + 1)π

(15)

280

KAPITEL 17. PERIODISCHE FUNKTIONEN

Als n¨achstes betrachten wir die durch periodische Fortsetzung von

g2 (x) =

 π   a( 2 − x)  

a(x −

f¨ ur 0 ≤ x ≤ π,

3 π) 2

(16)

f¨ ur π ≤ x ≤ 2π.

entstehende stetige Funktion f2 .

f2 (x)

x

Die st¨ uckweise Ableitung von g2 (x) ist −g1 (x), also ist π f2 (x) = a − 2

Z

0

x



X π 4a f1 (x)dx = a − 2 (2l + 1)π l=0

Z

x

sin(2l + 1)x dx,

0



X 4a π (− cos(2l + 1)x + 1). f2 (x) = a − 2π 2 (2l + 1) l=0 Einsetzen von x = π ergibt ∞

X 4a π π − a= a− (1 + 1), 2π 2 2 (2l + 1) l=0

281 also nebenbei die interessante Formel ∞ X l=0

1 π2 = . (2l + 1)2 8

(17)

Damit folgt

f2 (x) = =





X π 1 4a X 4a a+ cos(2l + 1)x − 2 (2l + 1)2 π l=0 (2l + 1)2 l=0

∞ X l=0

4a cos(2l + 1)x . (2l + 1)2

Wie f¨ ur eine stetige Funktion mit Knicken (s = 0) zu erwarten, fallen die Koeffizienten wie 1 O( k2 ). Viele weitere Beispiele finden sich in den Tafeln zur Fourieranalyse (z.B. Bronstein, Kap. 4.4.1). Die praktische Berechnung der Fourierkoeffizienten (6) geschieht mittels der sogenannten schnellen Fouriertransformation, die in Vorlesungen u ¨ber Numerische Analysis behandelt wird. Linearkombinationen von periodischen Funktionen mit verschiedenen Perioden T1 ,..., TN heißen quasiperiodisch; sie sind nur dann periodisch, wenn die Perioden ein gemeinsames Vielfaches T mit T ≡ 0 mod Tk (k = 1, ..., N ) besitzen. Ist das nicht der Fall, so heißen die Perioden inkommensurabel; f¨ ur N = 2 bedeutet das gerade, daß T1 /T2 irrational ist (¨ ubungsaufgabe). Quasiperiodische Funktionen oszillieren wie periodische Funktionen, aber unregelm¨aßig. Einfache quasiperiodische Funktionen entstehen durch Linearkombinationen weniger Exponentialfunktionen eiωk x mit inkommensurablen Frequenzen ωk . Da solche Frequenzen beliebig nahe beieinander liegen k¨onnen (anders als harmonische Frequenzen ωk = kω), ergibt sich im Grenzfall unendlich vieler Frequenzen das sogenannte Fourierintegral Z ∞ f (x) = eiωx fˆ(ω) dω, −∞

das in der Physik eine wichtige Rolle spielt, in dieser Vorlesung aber aus Zeitgr¨ unden nicht mehr behandelt werden kann.

Die Tatsache, daß harmonische Schwingungen Linearkombinationen von speziellen Schwingungen e±iωt (oder sin(ωt) und cos(ωt)) sind, ist ein Spezialfall des folgenden Satzes, der f¨ ur lineare Differentialgleichungen gilt. Man beachte die Analogie zur L¨osung linearer Gleichungssysteme! 17.9 Satz (Superpositionsprinzip) L sei eine endliche Indexmenge. (i) Sind yl (l ∈ L) L¨osungen der linearen Differentialgleichung (t ∈ R),

y˙ l (t) = A(t)yl (t) + gl (t) so ist y =

X

αl yl L¨osung der Differentialgleichung

l∈L

y(t) ˙ = A(t)y(t) + g(t),

g=

X

αl gl .

282 Beweis. Einsetzen! ⊓ ⊔ Folgerung

KAPITEL 17. PERIODISCHE FUNKTIONEN ⊓ ⊔

283 (i) Sind yl (l ∈ L) L¨osungen der homogenen linearen Differentialgleichung y(t) ˙ = A(t)y(t), X so ist auch jede Linearkombination y = αl yl L¨osung von (18).

(18)

l∈L

(ii) Ist y0 L¨osung der inhomogenen linearen Differentialgleichung y(t) ˙ = A(t)y(t) + g(t),

(19)

so erh¨alt man alle L¨osungen von (19), indem man zu y0 eine beliebige L¨osung der zugeh¨origen homogenen Gleichung (18) addiert. Beweis. (i) ist der Spezialfall gl = 0 von Satz 17.9, und (ii) gilt ebenfalls nach Satz 17.9, da die Differenz zweier L¨osungen von (19) eine L¨osung von (18) ist. ⊓ ⊓ ⊔ ⊔

17.10 Beispiel. Die Differentialgleichung m¨ y (t) + cy(t) ˙ + ky(t) = g(t) (m, c, k > 0)

(20)

beschreibt eine ged¨ ampfte erzwungene Schwingung eines Punktes y(t) mit Masse m, Reibungskoeffizient c, Steifigkeit k, und ¨außerer Anregung g(t).Die Anregungskraft g(t) steht im Gleichgewicht mit der Beschleunigungskraft m¨ y (t), der Reibungskraft cy(t) ˙ und der Ru ckstellkraft ky(t) (Hooke’sches Gesetz). Gleichung (20) l¨ a ßt sich als lineare ¨ Differentialgleichung f¨ ur den Zustand   y(t) x(t) := y(t) ˙ im Phasenraum R2 schreiben: ! ! y(t) ˙ y(t) ˙ x(t) ˙ = = y¨(t) m−1 g(t) − m−1 ky(t) − m−1 cy(t) ˙ ! ! ! 0 1 y(t) 0 = + = Ax(t) + h(t) −m−1 k −m−1 c y(t) ˙ m−1 g(t) mit A :=

0 1 −1 −m k −m−1 c

!

,

h(t) :=

0 −1 m g(t)

!

.

Wir k¨onnen die Gesamtheit der L¨osungen also nach dem Superpositionsprinzip bestimmen. Dazu setzen wir voraus, daß die Anregung g(t) als Linearkombination X g(t) = eλl t gl (21) l∈L

284

KAPITEL 17. PERIODISCHE FUNKTIONEN

von Exponentialfunktionen ausgedr¨ uckt werden kann. Zur L¨osung von (20) gen¨ ugt es dann wegen dem Superpositionsprinzip den Fall g(t) = eλl t gl

(22)

zu betrachten. Dazu machen wir den Exponentialansatz y(t) = eλt yl

(23)

mit geeigneten λ, yl ∈ C. Einsetzen in (20) zeigt, daß wir genau dann eine L¨osung haben, wenn (mλ2 + cλ + k)eλt yl = eλl t gl

(24)

ist. Wir betrachten zun¨achst die homogene Gleichung, die dem Fehlen ¨außerer Kr¨afte entspricht. Wie man aus (24) f¨ ur gl = 0 sieht, kann man yl genau dann 6= 0 (und dann beliebig) w¨ahlen, wenn λ eine Nullstelle der quadratischen Gleichung mλ2 + cλ + k = 0

(25)

ist. Also ist λ einer der beiden sogenannten Eigenwerte λ1,2 :=

−c ±



c2 − 4mk 2m

(26)

des Systems. Die Koeffizienten y1 , y2 der allgemeinen homogenen L¨osung y(t) = eλ1 t y1 + eλ2 t y2

(y1 , y2 ∈ C)

(27)

erh¨alt man dann aus den Anfangsbedingungen y(0), y(0) ˙ durch L¨osen eines linearen Gleichungssystems f¨ ur y1 und y2 (Einsetzen von t = 0 in (27) und seine Ableitung). Je nach dem Vorzeichen des Ausdrucks unter der Wurzel erh¨alt man ein unterschiedliches physikalisches Verhalten. (i) Bei geringer Reibung ist 0 < c
0, α= 2m

ω=



4mk − c2 > 0, 2m

(28)

woraus sich die L¨osungen eλ1,2 t = e−αt e±iωt = e−αt (cos ωt ± i sin ωt)

(29)

285

x(t)

t

(und ihre Linearkombinationen – sogenannte ged¨ ampfte harmonische Schwingungen) ergeben. Die Amplitude einer harmonischen Schwingung mit Kreisfrequenz ω wird also exponentiell ged¨ ampft mit einem Faktor e−αt ; die entstehende Schwingung oszilliert nicht mehr periodisch. Die durch e−αt = 12 definerte Halbwertszeit τ1/2 des Amplitudenzerfalls ist umgekehrt proportional zum Reibungskoeffizient, τ1/2 =

log 2 2m log 2 = . α c

Wie man aus (28) sieht, vergr¨oßert sich die Frequenz mit abnehmender Reibung; im Grenzfall fehlender Reibung, c → 0, erh¨alt man eine periodische harmonische Schwingung der maximalen Kreisfrequenz r √ 4mk k = . ω0 = 2m m √ (ii) Bei √ großer Reibung √ ist c > 4mk, und beide L¨osungen (26) sind reell und negativ (wegen c2 − 4mk ≤ c2 = c). Die Anfangsauslenkung klingt also exponentiell ab, ohne daß eine periodische Schwingung um die Ruhelage entsteht. Je nach Anfangswerten ergibt sich aus (27) eine monotone D¨ampfung oder ein einmaliger Durchgang durch die Ruhelage ¨ y = 0 (Ubungsaufgabe!).

286

KAPITEL 17. PERIODISCHE FUNKTIONEN

y(t)

t

√ (iii) Im Grenzfall c = 4mk erh¨alt man λ1 = λ2 = −c/2m < 0 und der Ansatz (27) hat nicht gen¨ ugend Freiheitsgrade, um beliebige Anfangsbedingungen zu erf¨ ullen. Zur vollst¨andigen L¨osung muß man also eine weitere spezielle L¨osung des homogenen Systems finden (¨ ubungsaufgabe). Das qualitative Verhalten entspricht dem bei großer Reibung. (iv) Um die inhomogene Gleichung zu l¨osen, erf¨ ullen wir (24) durch λ = λl ,

yl =

mλ2l

gl , + cλl + k

falls λl 6= λ1,2 .

(30)

Die (f¨ ur mλ2l + cλl + k 6= 0 n¨otige) Einschr¨ankung λl 6= λ1,2 ist f¨ ur periodische Anregungen stets erf¨ ullt, da dann λl = iωl rein imagin¨ar ist, w¨ahrend Re λ1,2 < 0. Nach dem Superpositionsprinzip erhalten wir eine spezielle L¨osung von (20), (21) mit y(t) =

X l∈L

eλl t gl , mλ2l + cλl + k

(31)

und die allgemeine L¨osung durch Addieren einer homogenen L¨osung (26), (27). Das System schwingt also sowohl in den Frequenzen der Anregung (erzwungene Schwingung) als auch in denen des isolierten Systems; allerdings ist der homogene Anteil ged¨ampft, so daß nach Beenden des sogenannten Einschwingvorgangs im wesentlichen nur noch der Einfluß der Anregung u ¨brigbleibt. Je n¨aher sich λl einem der Eigenwerte λ1,2 des Systems n¨ahert, um so kleiner wird |mλ2l +

287 cλl + k|, also wird die Anregung eλl t ql wegen (31) in der N¨ahe der Eigenwerte verst¨arkt (Resonanz). F¨ ur eine Anregung der Frequenz ωl ist der Exponent λl = iωl , im Fall kleiner Reibung wegen der Faktorenzerlegung mx2 + cx + k = m(x − λ1 )(x − λ2 ), also |mλ2l + cλl + k|

= = = =

m|λl − λ1 ||λl − λ2 | m|α + i(ωl − ω)||α + i(ωl + ω)| p p m α2 + (ωl − ω)2 α2 + (ωl + ω)2 q m α4 + 2α2 (ωl2 + ω 2 ) + (ωl2 − ω 2 )2 .

Der Ausdruck unter der Wurzel wird am kleinsten (die Verst¨arkung also maximal) f¨ ur ∗ ωl = ±ω , wobei √ ω ∗ = ω 2 − α2 , (32) und dann ist |mλ2l + cλl + k| = 2mαω .

(33)

Die Resonanzfrequenz ω ∗ liegt also wegen α = c/2m um so n¨aher ber der Eigenfrequenz ω des Systems, je kleiner die Reibung ist, und die Verst¨arkung ist dann umgekehrt proportional zum Reibungskoeffizienten. In der Physik haben periodische Prozesse vor allem deshalb eine große Bedeutung, weil Systeme in Gleichgewichtsn¨ahe mehr oder weniger periodische Bewegungen um das Gleichgewicht ausf¨ uhren. Um dies zu sehen, kn¨ upfen wir an Beispiel 7.22 an, ber¨ ucksichtigen aber in der Newton’schen Bewegungsgleichung außer dem Einfluß des Potentials Φ(x) auch noch eine der Geschwindigkeit entgegengesetzte Reibungskraft −cx(t) ˙ mit einem positiven Reibungskoeffizienten c > 0 und eine ¨außere Antriebskraft g(t). Damit wird m¨ x(t) = −∇Φ(x(t)) − cx(t) ˙ + g(t), oder m¨ x(t) + cx(t) ˙ + ∇Φ(x(t)) = g(t) .

(34)

Bewegungen komplizierterer Systeme werden durch analoge Differentialgleichungen beschrieben, in denen x(t) ein h¨oher-dimensionaler Zustandsvektor f¨ ur die Positionen aller beteiligter Teile ist; an die Stelle von m > 0 und c > 0 treten dabei symmetrische positiv definite Matrizen M (Massenmatrix) und C (D¨ ampfungsmatrix). Wir betrachten zun¨achst das abgeschlossene System ohne a¨ußere Kr¨afte (g = 0). 17.11 Proposition F¨ ur jede L¨osung der Differentialgleichung M x¨(t) + C x(t) ˙ + ∇Φ(x(t)) = 0

(35)

mit symmetrischen, positiv definiten Matrizen M, C ∈ Rn×n und einem stetig differenzierbaren Potential Φ : Rn → R nimmt die (mechanische) Energie 1 E(t) := x(t) ˙ T M x(t) ˙ + Φ(x(t)) 2

(36)

monoton ab. Im Fall, daß E(t) konstant bleibt, ist auch x(t) = x∗ konstant und zwar ist x∗ ein station¨arer Punkt von Φ.

288

KAPITEL 17. PERIODISCHE FUNKTIONEN

Beweis. Mit Produkt- und Kettenregel ergibt sich wegen der Symmetrie von M : ˙ E(t)

=

1 1 x¨(t)T M x(t) ˙ + x(t) ˙ T M x¨(t) + Φ′ (x(t))x(t) ˙ 2 2 x(t) ˙ T M x¨(t) + x(t) ˙ T ∇Φ(x(t))

= (35) = −x(t) ˙ T C x(t) ˙ ≤ 0,

(37)

˙ da C positiv definit ist. Also ist E(t) monoton fallend. Bleibt E(t) konstant, so ist E(t) = 0, T und aus (37) folgt x(t) ˙ C x(t) ˙ = 0, also x(t) ˙ = 0. Daher ist x(t) konstant, etwa = x∗ . ∗ Einsetzen in (35) ergibt dann ∇Φ(x ) = 0, d.h. x∗ ist ein station¨arer Punkt von Φ. ⊓ ⊔ ⊔ ⊓ Bei kleinen Geschwindigkeiten x(t) ˙ ≈ 0 liegt praktisch die ganze mechanische Energie (36) als potentielle Energie vor, E(t) ≈ Φ(x(t)). Da die mechanische Energie abnimmt, wird man erwarten, daß das System nicht in einem beliebigen station¨aren Punkt x∗ zur Ruhe kommt, sondern in einem lokalen Minimum. Die Gleichgewichtsenergie ist dann E ∗ = Φ(x∗ ). Wird von außen (g(t) 6= 0) nur wenig Energie ∆E zugef¨ uhrt, so kann man damit nur Zust¨ande mit potentieller Energie 1 Φ(x) = E(x) − x˙ T M x˙ ≤ E(x) ≤ E ∗ + ∆E 2 erreichen, da M positiv definit ist. Daher kann man bei geringer Energiezufuhr aus dem Potentialtopf, in dem das lokale Minimum x∗ liegt, nicht entweichen. Das System ist also in der N¨ahe von x∗ gefangen. Man sagt, bei x∗ liegt ein stabiles Gleichgewicht vor, das System schwingt um die Gleichgewichtslage. (Ein station¨arer Punkt, an dem kein lokales Minimum vorliegt definiert ein labiles Gleichgewicht, von dem sich das System bei ¨außeren St¨orungen leicht wieder entfernt.) Da bei kleiner Energiedifferenz ∆E nur kleine ¨ Anderungen x − x∗ m¨oglich sind, kann man den Gradienten ∇Φ(x) in der Differentialgleichung (35) um x∗ linearisieren, ∇Φ(x) = ∇Φ(x∗ ) + (∇Φ)′ (x∗ )(x − x∗ ) + o(kx − x∗ k), also ∇Φ(x) ≈ ∇2 Φ(x∗ )(x − x∗ ).

(38)

Nach Satz 7.32 ist die Hesse-Matrix ∇2 Φ(x∗ ) eine symmetrische Matrix; wegen dem folgenden Satz ist sie in der Regel positiv definit. 17.12 Satz f ∈ F(Rn , R) sei in einer Umgebung des station¨aren Punktes x∗ zweimal stetig differenzierbar. (i) Hat f bei x∗ ein lokales Minimum (Maximum), so ist die Hessematrix ∇2 f (x∗ ) positiv (negativ) semidefinit. (ii) Ist die Hessematrix ∇2 f (x∗ ) positiv (negativ) definit, so hat f bei x∗ ein lokales Minimum (Maximum). (Die notwendigen Bedingungen (i) f¨ ur ein lokales Minimum sind also fast hinreichend.)

289 Beweis. Es reicht, den Fall des Minimums zu beweisen. Da x∗ station¨arer Punkt ist, verschwindet der Gradient ∇f (x∗ ), und die quadratische Approximation von Satz 7.32 liefert f¨ ur x = x∗ die Beziehung 1 f (x∗ + h) = f (x∗ ) + hT ∇2 f (x∗ )h + o(khk2 ). 2

(39)

Schreiben wir also K = ∇2 f (x∗ ), so ergibt sich f¨ ur einen festen Richtungsvektor z ∈ Rn 1 f (x∗ + tz) = f (x∗ ) + t2 z T Kz + o(t2 ). 2 (i) Ist K nicht positiv semidefinit, so k¨onnen wir z so w¨ahlen, daß z T Kz = −ǫ < 0 wird. W¨ahlen wir nun t so klein, daß das Restglied ≤ 4ǫ t2 wird, so erhalten wir 1 ǫ ǫ f (x∗ + tz) ≤ f (x∗ ) + t2 (−ǫ) + t2 = f (x∗ ) − t2 < f (x∗ ). 2 4 4 Also hat f bei x∗ kein lokales Minimum. (ii) Die Menge M = {z ∈ Rn | kzk = 1} ist kompakt, also nimmt die stetige Funktion z T Kz auf M ihr Minimum an einem Punkt z ∈ M an, und nach Konstruktion von M ist zˆ 6= 0. Ist K positiv definit, so ist α := zˆT K zˆ > 0, nach Wahl von zˆ gilt also z T Kz ≥ α > 0

f¨ ur alle z ∈ M.

(40)

Ist h 6= 0, so hat z = h/khk die Norm 1, liegt also in M , und aus (40) ergibt sich hT ∇2 f (x∗ )h ≥ αkhk2 f¨ ur h 6= 0, aber nat¨ urlich auch f¨ ur h = 0. W¨ahlen wir nun h in (39) in einer so kleinen Umgebung von 0, daß das Restglied ≥ − α4 khk2 ist, so folgt 1 α α f (x∗ + h) = f (x∗ ) + αkhk2 − khk2 ≥ f (x∗ ) + khk2 ≥ f (x∗ ). 2 4 4 Also ist f (x∗ + h) ≥ f (x∗ ) f¨ ur alle h aus dieser Umgebung von 0, d.h. f hat bei x∗ ein lokales Minimum. ⊓ ⊔ ⊓ ⊔ F¨ ur ein System in der N¨ahe des Gleichgewichts erhalten wir also aus (39) die quadratische Approximation 1 Φ(x) ≈ Φ(x∗ ) + (x − x∗ )T K(x − x∗ ) (41) 2 mit der Matrix K := ∇2 Φ(x∗ ), (42) und aus (38) erh¨alt man die lineare Approximation ∇Φ(x) ≈ K(x − x∗ ),

(43)

290

KAPITEL 17. PERIODISCHE FUNKTIONEN

Da f¨ ur große K kleine Auslenkungen x−x∗ schon einen großen Mindestenergiebedarf △E = 1 (x − x∗ )K(x − x∗ ) erfordern, signalisiert die Matrix K den Grad an Unbeweglichkeit des 2 Systems. K wird daher als Steifigkeitsmatrix bezeichnet. Nach Satz 17.12 ist sie (im stabilen Gleichgewicht) stets symmetrisch und positiv semidefinit, und normalerweise ist sie positiv definit. Setzen wir die N¨aherung (43) in die Differentialgleichung (35) ein und vernachl¨assigen wir den Fehler, so erhalten wir M x¨(t) + C x(t) ˙ + K(x(t) − x∗ ) = 0. Gew¨ohnlich wird der Nullpunkt von x(t) noch in den Gleichgewichtspunkt verschoben, so daß x(t) also die Auslenkung aus der Gleichgewichtslage beschreibt. Ber¨ ucksichtigen wir nun ¨außere Kr¨afte, so erhalten wir die Gleichung M x¨(t) + C x(t) ˙ + Kx(t) = g(t)

(44)

als Bewegungsgleichung f¨ ur kleine Schwingungen um ein stabiles Gleichgewicht. (44) heißt die harmonische Approximation des Systems. In der Ingenieurspraxis geht man oft direkt von (44) aus; die Zustandsvektoren sind oft sehr hochdimensional (um etwa die Verformung eines Flugzeuges bei Beanspruchung durch Wind und Motoren zu modellieren), und die Matrizen M, C, K werden mit sogenannten Finite-Elemente-Methoden berechnet.

Finites Elemente Gitter f¨ ur einen Commanche Helikopter. Baustatik Matrizen der NASA, gesammelt von Alex Pothen, aus der University of Florida Sparse Matrix Collection.

291 F¨ ur Anregungen der Form g(t) =

X

eλl t gl ,

l∈L

jetzt mit Vektoren gl , f¨ uhrt der Exponentialansatz wieder zu einer L¨osung der Form X y(t) = eλl t yl , l∈L

wobei die yl L¨osungen der linearen Gleichungssysteme (λ2l M + λl C + K)yl = gl

(45)

sind.

Der Grundzustand und 3 Resonanzschwingungen eines Ger¨ uestes. Die Eigenschwingungen ergeben sich f¨ ur das abgeschlossene System (g = 0) aus dem quadratischen Eigenwertproblem (λ2 M + λC + K)y = 0,

y 6= 0.

(46)

292

KAPITEL 17. PERIODISCHE FUNKTIONEN

Dieses homogene Gleichungssystem ist genau dann nichttrivial l¨osbar, wenn die charakteristische Gleichung (oder S¨ akulargleichung) det(λ2 M + λC + K) = 0

(47)

erf¨ ullt ist. Die L¨osungen von (47) heißen die Eigenwerte des Systems. Multipliziert man (47) mit y T , so erh¨alt man wieder die Gleichung λ2 m + λc + k = 0 mit m = y T M y > 0, c = y T Cy > 0, k = y T Ky > 0. Insbesondere gilt f¨ ur die Eigenwerte des Systems wie in Beispiel 17.10 die Aussage Re λ < 0, ¨ d.h. das unbelastete System schwingt wieder in einer Uberlagerung von ged¨ampften harmonischen Schwingungen (nat¨ urlich nur in der harmonischen Approximation – daher der Name). Bei Vernachl¨assigung der Reibung (C = 0, also c = 0) erh¨alt man wieder rein imagin¨are Eigenwerte λ = iω, also periodische harmonische Schwingungen. Die Eigenfrequenzen ω ergeben sich in diesem Fall aus der Gleichung M −1 Ky = ω 2 y,

(48)

d.h. die Quadrate ω 2 sind gerade die Eigenwerte der Matrix M −1 K. F¨ ur das inhomogene System kann man aus (45) nur dann eine L¨osung gewinnen, wenn kein λl Eigenwert des Systems ist. Wieder tritt Resonanz ein, falls die D¨ampfung gering ist und eine Anregungsfrequenz in der N¨ahe einer Eigenfrequenz des Systems liegt. Dies hat zur Folge, daß dann die Energie einer Anregung fast vollst¨andig vom System aufgenommen wird, so daß eine andauernde, kleine Anregung zu so großen Auslenkungen f¨ uhren kann, daß die harmonische Approximation nicht mehr g¨ ultig ist. Bei einem Flugzeug kann dies dann beispielsweise zum Bruch f¨ uhren; die Berechnung von Eigenwerten spielt deshalb in der Praxis eine lebenswichtige Rolle. In praktischen Anwendungen sind M, C, K oft zeitabh¨angig, und z.T. m¨ ussen nichtlineare Effekte ber¨ ucksichtigt werden. Dann ist eine explizite L¨osung meistens unm¨oglich, qualitativ bleibt das hier Gesagte jedoch weitgehend richtig. Auch im hier behandelten einfachen Fall k¨onnen die entstehenden Eigenwertprobleme schon f¨ ur Matrizen der Dimension n > 4 nicht mehr explizit (und f¨ ur u > 2 nur umst¨andlich) gel¨ost werden. Man rechnet daher in der Praxis mit Methoden der numerischen Mathematik.

Kapitel 18 Matrixzerlegungen und Spektraltheorie In diesem Kapitel geht es um verschiedene Fragestellungen der linearen Algebra, die sich mit Hilfe von Matrixzerlegungen u ¨bersichtlich behandeln lassen. Unit¨are (bzw. im Reellen orthogonale) Matrizen definieren starre Bewegungen von K¨orpern und liefern kompakte Beschreibungen von Systemen orthogonaler Vektoren. Das Orthogonalisierungsverfahren von Gram-Schmidt f¨ uhrt zur orthogonalen Zerlegung beliebiger Matrizen. Die orthogonale Zerlegung ist grundlegend f¨ ur die Methode der kleinsten Quadrate zur Anpassung mathematischer Modelle an gegebene Daten. ¨ Eigenwerte und Eigenvektoren sind das mathematische Aquivalent physikalischer Eigenschaften, die mit Begriffen wie Spektrum, Schwingung und Resonanz zu tun haben. Sie sind auch unentbehrliche Grundbegriffe f¨ ur ein Verst¨andnis der Quantenmechanik. Die zugeh¨origen Matrixzerlegungen, die Schur-Zerlegung und die Jordansche Normalform f¨ ur beliebige quadratische Matrizen sowie die Spektralzerlegung f¨ ur diagonalisierbare, insbesondere f¨ ur hermitesche Matrizen beschreiben die in einer Matrix enthaltene Spektralinformation in kompakter Form. Definitheit und Signatur sind Eigenschaften von Matrizen, die mit der Zahl der positiven Eigenwerte zusammenh¨angen; dazu geh¨oren ebenfalls Matrixzerlegungen, u.a. die CholeskyZerlegung. Unter den symmetrische Matrizen bilden die positiv definiten die bei weitem wichtigste Klasse. Sie treten in geometrischer Verkleidung als Ellipsoide auf, wie sie zum Beispiel in der mehrdimensionalen Statistik als Konfidenzbereiche der Gauß’schen Normalverteilung auftreten. Man braucht Definitheitseigenschaften außerdem bei der Beurteilung, ob an einem station¨aren Punkt einer mehrdimensionalen Funktion ein Minimum oder ein Maximum vorliegt (s. Kap. 17). Definite Matrizen bilden daher ein unentbehrliches Handwerkszeug in vielen praktischen Anwendungen, wo mehrdimensionale Datenanalyse notwendig ist oder Optimierungsprobleme gel¨ost werden m¨ ussen. Die Singul¨are-Werte-Zerlegung ist schließlich ein f¨ ur viele Probleme der Datenanalyse grundlegendes Werkzeug; exemplarisch daf¨ ur schauen wir uns eine Anwendung in der Bildverarbeitung (Datenkompression) an. 293

294

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

In diesem Kapitel ist V stets ein Banachraum u ur die Anwen¨ber K = R oder K = C. F¨ n dungen auf Matrizen ist V = K ein Standardvektorraum. (In den hier nicht behandelten Anwendungen auf die Quantenphysik ist V ein Funktionenraum, n¨amlich der Hilbertraum der Wellenfunktionen.) Unit¨ are Matrizen. F¨ ur die Entwicklung der Spektraltheorie ben¨otigen wir Matrizen mit einer besonderen Eigenschaft. 18.1 Definition (i) Eine Matrix Q ∈ Kn×n heißt unit¨ ar, falls sie regul¨ar ist und Q−1 = Q∗ gilt. Eine unit¨are Matrix mit reellen Koeffizienten heißt orthogonal. (ii) Ein Orthonormalsystem ist eine Menge paarweise orthogonaler Vektoren der L¨ange 1. Eine Orthonormalbasis eines Vektorraums V ∈ Kn ist ein Orthonormalsystem, das V erzeugt. 18.2 Proposition (i) Q ∈ Kn×n ist genau dann unit¨ar, wenn eine der beiden gleichwertigen Bedingungen QQ∗ = I und Q∗ Q = I gilt. Insbesondere ist mit Q auch Q∗ unit¨ar. (ii) Ist u ∈ Kn \ {0}, so ist die Matrix Q = I − γuu∗

f¨ ur γ = 2/u∗ u

(1)

unit¨ar, und es gilt Q∗ = Q. (iii) Die Menge O(n, K) aller unit¨aren n × n-Matrizen u ¨ ber K bildet eine Gruppe. Dasselbe gilt f¨ ur die Menge SO(n, K) aller unit¨aren n × n-Matrizen Q u ¨ ber K mit det Q = 1. (iv) F¨ ur jede unit¨are Matrix Q gilt kQxk2 = kxk2 .

(v) Q ∈ Kn×n ist genau dann unit¨ar, wenn die Spalten von Q eine Orthonormalbasis von Kn bilden. Beweis. (i) Aus Q−1 = Q∗ folgt QQ∗ = I und Q∗ Q = I durch Multiplikation mit Q von links bzw. rechts. Umgekehrt folgt aus QQ∗ = I, daß Q surjektiv ist, als quadratische Matrix also regul¨ar, und dann ergibt sich Q−1 = Q∗ durch Multiplikation mit Q−1 von links. Ebenso folgt aus Q∗ Q = I, daß Q injektiv ist, als quadratische Matrix also regul¨ar, und dann ergibt sich Q−1 = Q∗ durch Multiplikation mit Q−1 von rechts. (ii) γ = 2/u∗ u ist eine reelle Zahl (konjugieren a¨ndert nichts), also Q∗ = I − γ(uu∗ )∗ = I − γuu∗ = Q und QQ∗ = (I − γuu∗ )(I − γuu∗ ) = I − 2γuu∗ + γ 2 uu∗ uu∗ = I − 2γuu∗ + (γ 2 u∗ u)uu∗ = I. (iii) Sind Q1 und Q2 unit¨are n × n-Matrizen, so gilt f¨ ur Q = Q1 Q2 die Gleichung Q−1 = −1 (Q1 Q2 )−1 = Q−1 = Q∗2 Q∗1 = (Q1 Q2 )∗ = Q∗ , also ist auch Q1 Q2 unit¨ar. Ebenso gilt 2 Q1 −1 −1 ∗ ∗ ar. f¨ ur Q = Q1 die Gleichung Q−1 = Q1 = (Q∗1 )∗ = (Q−1 1 ) = Q , also ist auch Q1 unit¨ Daher bilden die unit¨aren n × n-Matrizen eine Gruppe. Da die Eigenschaft det Q = 1 beim Produktbilden und Invertieren erhalten bleibt, gilt dasselbe auch f¨ ur SO(n, K). (iv) Es ist n¨amlich kQxk22 = (Qx)∗ (Qx) = x∗ Q∗ Qx = x∗ x = kxk2 .

295 (v) Wegen Q:j · Q:k = QT:j Q:k =

X

Qlj Qlk = (QT Q)jk

l

sind die Spalten Q:j und Q:k f¨ ur all j 6= k genau dann orthogonal, wenn QT Q eine Diagonalmatrix ist. Und wegen kQ:k k22 = Q:k · Q:k = (QT Q)kk haben die Spalten genau dann die L¨ange 1, wenn alle Diagonalelemente 1 sind. Daraus folgt die Behauptung. ⊓ ⊔ Man nennt die U (n) = O(n, C) unit¨ are Gruppen, die SU (n) = SO(n, C) spezielle unit¨ are Gruppen, die O(n) = O(n, R) orthogonale Gruppen und die SO(n) = SO(n, R) spezielle orthogonale Gruppen. Die unit¨aren Gruppen spielen in der Elementarteilchentheorie eine zentrale Rolle, n¨amlich als Eichgruppen (innere Symmetriegruppen) U(1) der Photonen, SU(2) der W-Bosonen und SU(3) der Quarks. Allgemeiner sieht man wie im Beweis von (v): 18.3 Folgerung Die Spalten einer Matrix A sind genau dann orthogonal, wenn A∗ A eine Diagonalmatrix ist. Die Diagonalelemente von A∗ A sind gerade die Quadrate der euklidischen L¨angen der entsprechenden Spalten von A. Die geometrische Bedeutung unit¨arer Matrizen ergibt sich aus dem folgenden Satz. 18.4 Satz (Abstandsinvarianz) Der euklidische Abstand kx − yk2 von zwei beliebigen Punkten x, y ∈ Kn ¨andert sich bei einer affinen Abbildung z → Qz + b genau dann nicht, wenn Q unit¨ar ist. Beweis. Ist Q unit¨ar, so folgt aus Proposition 18.2(iv) die Gleichung k(Qx + b) − (Qy + b)k2 = kQ(x − y)k2 = kx − yk2 . Also bleiben dann alle Abst¨ande invariant. Umgekehrt sei z → Qz +b eine affine Abbildung, die alle Abst¨ande invariant l¨aßt. Da Verschiebungen die Abst¨ande nicht ¨andern, l¨aßt auch z → Qz alle Abst¨ande invariant. Diese Abbildung bildet den Ursprung auf sich ab, erh¨alt die Abst¨ande zum Ursprung, und bildet daher die euklidische Einheitskugel auf sich ab. Daraus folgt aber, daß Q unit¨ar sein muß; allerdings k¨onnen wir das erst sp¨ater (Proposition 18.28) beweisen, da dazu die unit¨are Spektralzerlegung ben¨otigt wird. ⊓ ⊔ Unit¨are Abbildungen stellen also wie Translationen abstandserhaltende und daher starre Bewegungen dar. Bewegungen mit Q ∈ SO(n, K) haben det Q = 1, erhalten deshalb auch die Orientierung, und lassen sich daher als Drehungen im Kn auffassen. Orthogonalisierung. Wir wollen nun den Zusammenhang zwischen unit¨aren Matrizen und Orthonormalsystemen etwas genauer betrachten. 18.5 Satz (i) Sind s1 , . . . , sp linear unabh¨angige Vektoren in Kn , so gibt es ein Orthonormalsystem q1 , . . . , qp mit Span{q1 , . . . , qk } = Span{s1 , . . . , sk } f¨ ur k = 1, . . . , p.

(2)

296

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

(ii) Jedes Orthonormalsystem in Kn ist linear unabh¨angig und l¨aßt sich durch Hinzunahme geeigneter Vektoren zu einer Orthonormalbasis von Kn erg¨anzen. (iii) Zu jeder Matrix A ∈ Kn×p gibt es eine unit¨are Matrix Q ∈ Kn×n und eine obere Dreiecksmatrix R ∈ Kn×p mit A = QR. Man nennt eine solche Zerlegung eine orthogonale Zerlegung von A. (iv) Zu jedem Vektor x ∈ Kn \ {0} gibt es eine unit¨are Matrix Q, deren erste Spalte parallel zu x ist. Beweis. (i) Der Beweis wird konstruktiv mit dem Orthogonalisierungsverfahren von Gram-Schmidt gef¨ uhrt. Bei diesem Verfahren konstruiert man die Vektoren qk der Reihe nach aus den sk , so daß (2) gilt. sk ist eine Linearkombination von q1 , . . . , qk , sk =

k X

Rlk ql

(3)

l=1

Multiplikation mit qj∗ f¨ ur j < k ergibt qj∗ sk = Rjk := qj∗ sk

P

w¨ahlen. F¨ ur den Vektor vk := sk −

Rlk qj∗ ql = Rjk qj∗ qj = Rjk , also muß man

f¨ ur j < k

X

(4)

Rjk qj

(5)

j n bekommt man nur A:,1:n = QR:,1:n , und die u ¨brigen Spalten von R aus R:,n+1:p = ∗ Q A:,n+1:p . Die entstehende n × p-Matrix R ist offenbar immer noch eine obere Dreiecksmatrix, und es ist QR = Q(R:,1:n , R:,n+1:p ) = (QR:,1:n , QR:,n+1:p ) = (A:,1:n , QQ∗ A:,n+1:p ) = (A:,1:n , A:,n+1:p ) = A.

(iv) Nach (iii) existiert eine orthogonale Zerlegung x = QR mit einer oberen Dreiecksmatrix R mit einer einzigen Spalte. Also ist R = R11 e1 , und es folgt x = R11 Qe1 . Da x nicht −1 verschwindet, ist R11 6= 0, also Qe1 = R11 x parallel zu x. ⊓ ⊔ 18.6 Beispiel. Wir orthogonalisieren die Spalten sk  7 −1 −1  A= 4 2 11 4 20 11

F¨ ur k = 1 ist die Summe in (5) leer, also

= A:k der Matrix   .



 7   v1 = s1 =  4  , 4 R11 = kv1 k2 =



49 + 16 + 16 = 9,

q1 = v1 /R11

F¨ ur k = 2 ist R12 = q1∗ s2 = 91 (−7 + 8 + 80) = 9, also

R12 = 9,

R22 = kv2 k2 =



 7 1  =  4 . 9 4



   −1 − 7 −8     v2 = s2 − R12 q1 =  2 − 4  =  −2  , 20 − 4 16 √

64 + 4 + 256 = 18,

q2 = v2 /R22



 −4 1  =  −1  . 9 8

298

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Ebenso ist R13 = q1∗ s3 = 19 (−7 + 44 + 44) = 9 und R23 = q2∗ s3 = 19 (4 − 11 + 88) = 9, also R13 = 9,

R23 = 9,



   −1 − 7 + 4 −4     v3 = s3 − R13 q1 − R23 q2 =  11 − 4 + 1  =  8  , 11 − 4 − 8 −1

R33 = kv3 |2 =



16 + 64 + 1 = 9,

q3 = v3 /R33

Als Ergebnis bekommt man die Orthonormalbasis q1 , q2 , q3 A = QR mit    7 −4 −4 9 1   Q =  4 −1 8 , R =  0 9 4 8 −1 0 wie man durch Ausmultiplizieren best¨atigt.



 −4 1  =  8 . 9 −1

und die orthogonale Zerlegung  9 9  18 9  , 0 9

18.7 Bemerkung. Man kann eine unit¨are Matrix mit der in Satz 18.5(iv) geforderten Eigenschaft explizit angeben, n¨amlich Q = I − γuu∗ mit (   |x| falls x1 = 0, 1 µ + x1 , γ= u= , µ= x1 x2:n µ(µ + x1 ) |x| sonst. |x1 | Um dies zu sehen, bemerken wir zun¨achst, daß ( 1 falls x1 = 0, σ := µ/|x| = x1 /|x1 | sonst, eine Zahl vom Betrag 1 mit der Eigenschaft µ = σ|x|, x1 = σ|x1 | ist. Damit k¨onnen wir u in der Form     σ|x| + σ|x1 | σ(|x| + |x1 |) u= = x2:n x2:n schreiben. Also ist u∗ u = ||x| + |x1 ||2 + |x2:n |2 = |x|2 + 2|x| |x1 | + |x1 |2 + |x2:n |2 = |x|2 + 2|x| |x1 | + |x|2 = 2|x|(|x| + |x1 |), und γ=

1 1 1 2 = = = ∗ . 2 σ|x|σ(|x| + |x1 |) |σ| |x|(|x| + |x1 |) |x|(|x| + |x1 |) uu

Nach Proposition 18.2 ist Q also unit¨ar. Die erste Spalte von Q l¨aßt sich wegen γu1 =

σ(|x| + |x1 |) σσ 1 1 = = = |x|(|x| + |x1 |) σ|x| σ|x| µ

299 als

1 Q:1 = (I − γuu∗ ):1 = e1 − γu1 u = (µe1 − u)    µ −1 x1 1 µ − (µ + x1 ) = = −µ−1 x = µ −x2:n µ x2:n schreiben, ist also parallel zu x. Die Methode der kleinsten Quadrate. Ein in der Praxis u ¨beraus h¨aufiges Problem ist die Anpassung mathematischer Modelle an gegebene, fehlerbehaftete Daten. Ein mathematisches Modell f¨ ur eine Problemklasse enth¨alt in der Regel einige (oft sogar viele) Parameter, deren Zahlenwerte variiert werden k¨onnen und je nach ihren Werten verschiedene konkrete Probleme beschreiben. Moderne Wettervorhersagen beruhen z.B. unter anderem darauf, daß die Anfangswerte der partiellen Differentialgleichungen, nach denen die Wetterentwicklung berechnet wird, mit Hilfe der aktuellen, von Meßstationen gelieferten Wetterdaten korrigiert werden k¨onnen. Die Parameter sind hier Gr¨oßen, die die Wetterkarte im Jetztzeitpunkt bestimmen. Aber auch schon das Zeichnen der besten Geraden y = αx+β oder Parabel y = αx2 +βx+γ durch eine Anzahl fehlerbehafteter Punkte ist ein einfaches Modellanpassungsproblem. Solche Probleme bearbeitet man mit statistischen Verfahren, von denen die Methode der kleinsten Quadrate eines der grundlegendsten ist. Das Prinzip dieser Methode ist es, einen geeigneten Ausdruck f¨ ur die Residuen, d.h. die Abweichungen der Daten vom Modell zu finden und die Parameter so zu w¨ahlen, daß die Residuen m¨oglicht klein werden. In einfachen F¨allen sind die Residuen gerade die Differenzen zwischen den tats¨achlichen Daten und den vom Modell vorhergesagten Werten. Da die Daten in der Regel fehlerbehaftet sind, muß die Zahl n der Daten (bzw. allgemeiner der Residuen) wesentlich gr¨oßer sein als die Zahl p der Modellparameter, damit das Datenanpassungproblem ohne weitere Vorgaben zuverl¨assige Ergebnisse liefert. Die Residuen sind offensichtlich eine Funktion der Parameter im Modell. Wir fassen s¨amtliche Parameter zu einem Parametervektor zusammen, den man u ¨blicherweise mit θ bezeichnet (hier verwenden wir ausnahmsweise einen kleinen griechischen Buchstaben f¨ ur einen Vektor). Den Vektor der Residuen schreiben wir als F (θ); F ist also eine Abbildung vom Raum Rp der Parametervektoren in den Raum Rn der Residuenvektoren. Messen wir die qX Fk (θ), so ist der beste Wert Gr¨oße von F (θ) durch die euklidische Norm kF (θ)k2 = f¨ ur θ derjenige, der die Summe der Quadrate der einzelnen Residuen am kleinsten macht; daher der Name des Verfahrens. Im Allgemeinfall ist die Bestimmung des besten Werts eine Aufgabe der Optimierungstheorie; im (praktisch sehr wichtigen) linearen Fall ist die Aufgabe jedoch so u ¨bersichtlich, daß sie ohne viel Theorie gel¨ost werden kann. Wir setzen daher voraus, daß der Residuenvektor (kurz das Residuum) in der Form Aθ − b geschrieben werden kann; die Aufgabe besteht also darin, den Wert θˆ von θ zu finden, f¨ ur den die Quadratsumme kAθ − bk22 m¨oglichst klein wird. 18.8 Satz Es sei A ∈ Rn×p und b ∈ Rp . Ist rank A = p < n, so gibt es genau einen Vektor θˆ mit kAθˆ − bk22 ≤ kAθ − bk22 f¨ ur alle θ ∈ Rp . (7)

300

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Man kann θˆ aus den sogen. Normalgleichungen AT Aθˆ = AT b

(8)

berechnen. Beweis. Nach Satz 9.20 ist AT A = A∗ A regul¨ar, also haben die Normalgleichungen (8) eine ˆ F¨ eindeutige L¨osung θ. ur diese gilt AT (Aθˆ − b) = 0, also kAθ − bk22 − kAθˆ − bk22 = = = = = =

(Aθ − b)T (Aθ − b) − (Aθˆ − b)T (Aθˆ − b) θT AT (Aθ − b) − bT (Aθ − b) − 0 + bT (Aθˆ − b) ˆ θT (AT Aθ − AT b) − bT A(θ − θ) ˆ − θˆT AT A(θ − θ) ˆ θT (AT Aθ − Aθ) ˆ T AT A(θ − θ) ˆ (θ − θ) ˆ 2 ≥ 0. kA(θ − θ)k 2

ˆ = 0; durch Multiplikation Also gilt (7). Gleichheit kann nur dann gelten, wenn A(θ − θ) T −1 T ˆ ˆ mit (A A) A ergibt sich daraus aber θ − θ = 0, also θ = θ. ⊓ ⊔ 18.9 Beispiel. Gegeben seien n Paare (xl , yl ) ∈ R × R (l = 1, . . . , n) gem¨aß der folgenden Tabelle. xl 1.23 1.31 1.35 1.51 1.59 1.63

yl 2.94 3.23 3.38 3.72 4.04 4.14

1.1

1.3

xl 1.69 1.73 1.74 1.87 1.89 2.00

yl 4.40 4.44 4.48 4.80 4.83 5.18

5.5

5

4.5

4

3.5

3

2.5

2 1

1.2

1.4

1.5

1.6

1.7

1.8

1.9

2

Die Graphik l¨aßt einen n¨aherungsweise linearen Zusammenhang zwischen den xl und den yl vermuten. Wir suchen also nach einer Geraden y = θ1 x + θ2 , die diesen Zusammenhang am

301 besten beschreibt. Die Methode der kleinsten Quadrate minimiert die Summe θ2 − yl )2 der Residuen. Wir schreiben das als kAθ − yk22 = min! mit

X

(θ1 xl +

l



 x1 1  . .  A =  .. ..  . xn 1

Die Normalgleichungen AT Aθˆ = AT y sind X X ! x2l xl X θˆ = xl n

X

xl yl X yl

im konkreten Fall also

32.4622 19.5400 19.5400 12.0000

!

θˆ ≈

82.5766 49.5800

θˆ =

und liefern die L¨osung 2.8606 −0.5263

!

!

,

!

.

Die zugeh¨orige Gerade ist im Bild mit eingezeichnet. Mehr Einsicht in die Natur der Normalgleichungen erh¨alt man mit Hilfe einer orthogonalen Zerlegung A =QR von  A. Als rechteckige obere Dreiecksmatrix hat n¨amlich R wegen p < n R1:p,: . Da unit¨are Matrizen die euklidische Norm nicht ¨andern, ergibt sich die Form R = 0 mit Q∗ A = Q∗ QR = R die Darstellung kAθ −

bk22



= kQ (Aθ −

b)k22



= kRθ − Q

bk22

 

R1:p,: θ − (Q∗ b)1:p 2

=

−(Q∗ b)p+1:n 2

Man sieht hieraus sofort, daß man in den transformierten Koordinaten h¨ochstens die ersten p Koordinaten beliebig klein machen kann. Den kleinsten Wert f¨ ur kAθ − bk22 erh¨alt man offenbar, wenn man θ als L¨osung des dreieckigen Gleichungssystems R1:p,: θ = (Q∗ b)1:p

(9)

w¨ahlt. Nun ist AT (Aθ − b) = A∗ (Aθ − b) = R∗ Q∗ (Aθ − b) = R∗ (Rθ − Q∗ b) ∗ ∗ (R1:p,: θ − (Q∗ b)1:p ), (Rθ − Q∗ b)1:p = R1:p,: = R1:p,: also gilt f¨ ur den optimalen Parametervektor die Gleichung AT (Aθ − b) = 0, aus der die Normalgleichungen folgen.

302

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

In der Praxis werden sowohl die Normalgleichungen (8) als auch das sich aus einer orthogonalen Faktorisierung ergebende dreieckige Gleichungssystem (9) zur L¨osung von linearen Kleinste-Quadrate-Problemen benutzt. Elementare Spektraltheorie. Die Spektraltheorie besch¨aftigt sich mit Eigenwerten und Eigenvektoren von quadratischen Matrizen und allgemeiner von linearen Selbstabbildungen eines Vektorraums. 18.10 Definition A ∈ L(V ) sei eine lineare Selbstabbildung.

(i) Eine komplexe Zahl λ ∈ C heißt regul¨ arer Punkt von A, falls A − λI eine beschr¨ankte Inverse hat. (ii) Ein Unterraum U von V heißt invariant bzgl. A, falls das Bild A(U ) von U ganz in U enthalten ist. Der Raum Eλ := Null(A − λI) heißt der zu λ geh¨orige invariante Unterraum von A. (iii) Eine komplexe Zahl λ ∈ C heißt Eigenwert von A, falls dim Eλ > 0. Die Dimension dim Eλ heißt geometrische Vielfachheit des Eigenwerts λ. Die Vektoren x ∈ Eλ \ {0} heißen die zu λ geh¨origen Eigenvektoren von A. (In einem Funktionenraum sagt man statt Eigenvektor auch Eigenfunktion.) (iv) Ein aus einem Eigenwert λ und einem zugeh¨origen Eigenvektor x bestehendes Paar (λ, x) heißt Eigenpaar von A. Ein Eigenvektor x heißt normiert, falls kxk = 1.

(v) Die Menge Sp A aller nicht regul¨aren Punkte von A heißt das Spektrum von A, und die Menge aller Eigenwerte von A heißt das Punktspektrum von A. Offenbar kann man jeden Eigenvektor normieren, indem man ihn durch seine Norm teilt. Das Ergebnis ist ein normierter Eigenvektor zum gleichen Eigenwert. Die gew¨ahlten Bezeichnungen passen sinnvoll zueinander, denn es gilt:

18.11 Proposition (i) (λ, x) ∈ C × V ist genau dann ein Eigenpaar, wenn die Eigenwertgleichung Ax = λx mit x 6= 0 erf¨ ullt ist. (ii) Eλ ist (tats¨achlich) ein invarianter Unterraum von A. (iii) Das Punktspektrum von A ist stets im Spektrum Sp A enthalten. Beweis. (i) Nach Definition von Eλ ist x ∈ Eλ gleichwertig mit (A−λI)x = 0, also Ax = λx.

(ii) Das Bild A(Eλ ) besteht aus den Vektoren Ax mit x ∈ Eλ . Nach (i) ist Ax = λx ∈ Eλ , da Eλ als Nullraum ein Unterraum ist. Also liegt A(Eλ ) ganz in Eλ . (iii) Ist λ im Punktspektrum von A, so ist Null(A − λI) nichtleer, A − λI also nicht injektiv. Daher hat A − λI keine Inverse, λ kann also kein regul¨arer Punkt von A sein. Also ist λ ∈ Sp A. ⊓ ⊔

303 F¨ ur regul¨are Punkte λ sind die L¨osungen von linearen Gleichungen (A − λI)x = b bei beschr¨anktem b wegen kxk = k(A − λI)−1 bk ≤ k(A − λI)−1 k kbk ebenfalls beschr¨ankt. Bei den u ¨brigen Punkten, also bei Punkten im Spektrum, k¨onnen L¨osungen jedoch im Prinzip beliebig groß werden. Dies ist analog zum Resonanzprinzip in der Physik, wo Schwingungen durch a¨ußere Kr¨afte normalerweise (bei regul¨aren Frequenzen) in der Amplitude beschr¨ankt bleiben, bei bestimmten Resonanzfrequenzen dagegen beliebig stark wachsen k¨onnen. Wie sich aus Kapitel 17 ergibt, sind diese Resonanzfrequenzen tats¨achlich mathematisch durch Eigenwerte im (Punkt-)Spektrum beschreibbar. In der Quantenphysik ist V ein sogen. Hilbertraum, und das Spektrum des sogen. HamiltonOperators H spielt eine zentrale Rolle; es besteht aus der Gesamtheit der Energieniveaus, die ein System von Teilchen annehmen kann. Die Eigenfunktionen sind gerade die Wellenfunktionen der gebundenen Zust¨ande, wo die Energie nur gewisse festgelegte Werte, n¨amlich die Eigenwerte (im Punktspektrum) annehmen kann. Ein Wechsel des Zustands ist mit einem Quantensprung verbunden, der mit der Abgabe oder Aufnahme eines Lichtquants (in Hochenergieexperimenten auch anderer Teilchen) der Differenzenergie E einhergeht. Die Lichtquanten haben dann eine Frequenz ν, die wegen der grundlegenden Beziehung E = hν (mit dem Planck’schen Wirkungsquantum h, einer universellen Konstanten) ebenfalls nur bestimmte Werte annimmt. Bricht man das Licht mit Hilfe eines Prismas, so sieht man diese Frequenzen als dunkle Absorptions- oder helle Emmissionslinien im Spektrum. Das erkl¨art die Bezeichnungsweise ‘Spektrum’ f¨ ur die Menge der nicht regul¨aren Punkte. ¨ Uberschreitet die von außen zugef¨ ugte Energie eine gewisse Schwelle, so reicht sie aus, um die Teilchen voneinander zu trennen. An Stelle eines gebundenen Zustands hat man dann einen sogen. Streuzustand, und die Energie ist nicht mehr gequantelt. Streuzust¨ande geh¨oren nicht zum Punktspektrum, sondern zum sogen. kontinuierlichen Spektrum, das ebenfalls eine Teilmenge von Sp H ist. Streuzust¨ande haben also Energien, zu denen es keine Eigenfunktionen im Hilbertraum gibt. (In manchen F¨allen gibt es außerdem noch weitere Zust¨ande zum sogen. singul¨aren Spektrum.) Die streng mathematische Behandlung der Quantenphysik erfordert eine Theorie der Eigenwerte von linearen Operatoren in Funktionenr¨aumen, was in Vorlesungen u ¨ber Funktionalanalysis oder Banachalgebren abgehandelt wird. Im vorliegenden Rahmen k¨onnen wir nur wenige allgemeine Aussagen behandeln, und konzentrieren uns haupts¨achlich auf den einfacheren endlich-dimensionalen Fall. (Vieles davon u ¨bertr¨agt sich analog auf Funktionenr¨aume; jedoch werden die Konzepte und Beweise erheblich technischer und erfordern wesentlich mehr Sorgfalt in der Durchf¨ uhrung.)

304

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

18.12 Beispiele. (i) Eine Matrix A ∈ Cn , die alle Einheitsvektoren ek (k = 1, . . . , n) als Eigenvektoren hat, ist eine Diagonalmatrix. Die kte Spalte ist n¨amlich das Bild von ek , also ein Vielfaches von ek . Umgekehrt hat eine Diagonalmatrix A stets die Einheitsvektoren ek als Eigenvektoren, und wegen Aek = Akk ek sind die Diagonalelemente Akk die zugeh¨origen Eigenwerte. Es ist leicht zu sehen, daß das die einzigen Eigenwerte einer Diagonalmatrix sind. Insbesondere hat die Einheitsmatrix den einzigen Eigenwert 1. (ii) Die Ableitung dtd ist eine lineare Selbstabbildung des Vektorraums V = C ∞ ([α, ω], Rn ) der beliebig oft differenzierbaren Wege im Rn . Das Punktspektrum und daher das Spektrum ist C, denn f¨ ur jedes λ ∈ C sind die Wege mit x(t) = eλt x0 wegen dtd x(t) = λeλt x0 = λx(t) Eigenfunktionen zum Eigenwert λ. Da es nach Satz 15.1 keine weiteren L¨osungen der Eigenwertgleichung gibt, ist dim Eλ = n. 18.13 Satz (i) Sp A ist stets abgeschlossen. (ii) Ist A beschr¨ankt, so ist das Spektrum beschr¨ankt, Sp A ⊆ K[0; kAk]. Insbesondere gilt |λ| ≤ kAk f¨ ur alle Eigenwerte λ von A.

(10)

Beweis. (i) Es gen¨ ugt, zu zeigen, daß das Komplement offen ist. Sei also λ0 ein regul¨arer Punkt. Dann hat B := (A − λ0 I)−1 eine endliche Norm, und f¨ ur |λ − λ0 | < ε := kBk−1 ist k(λ − λ0 )Bk < 1. Nach Satz 10.22 hat daher die Abbildung C := I − (λ − λ0 )B eine beschr¨ankte Inverse. Wegen C(A − λ0 I) = A − λ0 I − (λ − λ0 )I = A − λI ist also (A − λI)−1 = (A − λ0 I)−1 C −1 = BC −1 beschr¨ankt durch kBk kC −1 k. Daher sind alle λ im Kreis B(0; ε) regul¨are Punkte. (ii) Ist |λ| > kAk, so ist kλ−1 Ak < 1, und wie eben hat A − λI = −λ−1 (I − λ−1 A) eine beschr¨ankte Inverse. Also sind alle λ 6∈ K[0; kAk] regul¨are Punkte, und daher Sp A ⊆ K[0; kAk]. Da alle Eigenwerte zum Spektrum geh¨oren, folgt (10). ⊓ ⊔ 18.14 Definition Man nennt B ∈ L(U ) ¨ ahnlich zu A ∈ L(V ), wenn es einen Isomorphis−1 mus S : U → V gibt, so daß S und S beschr¨ankt sind und B = S −1 AS gilt. 18.15 Proposition (i) Ist B ¨ahnlich zu A, so ist A ¨ahnlich zu B. Ist außerdem C ¨ahnlich zu B, so ist C auch ¨ ¨ ist eine Aquivalenzrelation.) ¨ahnlich zu A. (Man sagt, die Ahnlichkeit (ii) Sind A und B ¨ahnlich, so sind A − λI und B − λI f¨ ur alle λ ∈ C ¨ahnlich.

(iii) Ist A bijektiv und sind A und A−1 beschr¨ankt, so sind AB und BA ¨ahnlich. ¨ (iv) Ahnliche lineare Selbstabbildungen haben dasselbe Spektrum. Beweis. (i) Aus B = S −1 AS mit beschr¨anktem S0 = S −1 und S = S0−1 folgt n¨amlich A = SBS −1 = S0−1 BS0 . Ist außerdem C = M −1 BM mit beschr¨anktem M und M −1 , so

305 ist C = M −1 S −1 ASM = (SM )−1 A(SM ) mit kSM k ≤ kSk kM k < ∞ und k(SM )−1 k = kM −1 S −1 k ≤ kM −1 k kS −1 k < ∞.

(ii) Aus B = S −1 AS folgt n¨amlich (B − λI) = S −1 (A − λI)S.

(iii) Es ist dann n¨amlich AB = A(BA)A−1 .

(iv) Ist λ regul¨arer Punkt von A, so ist (B − λI)−1 wegen (B − λI)−1 = S −1 (A − λI)−1 S beschr¨ankt. ⊓ ⊔ 18.16 Satz A sei lineare Selbstabbildung eines n-dimensionalen Vektorraums V u ¨ ber C. (i) Das Spektrum Sp A ist nichtleer und endlich; es besteht genau aus den Eigenwerten von A. (Sp A ist also ein reines Punktspektrum.) (ii) Es gibt ein eindeutig bestimmtes Polynom

χA vom Grad n mit der Eigenschaft

det(S −1 AS − xI) = χA (x) f¨ ur jede Karte S : Kn → V von V . Man nennt A.

χA das charakteristische Polynom von

(iii) Die Eigenwerte von A sind genau die Nullstellen des charakteristischen Polynoms von A. Man nennt die Vielfachheit der Nullstelle λ die algebraische Vielfachheit des Eigenwerts λ. (Trotz der Bezeichnungsweise besteht kein inhaltlicher Zusammenhang mit charakteristischen Funktionen.) Beweis. F¨ ur eine feste Karte S : Kn → V bildet die zu A ¨ahnliche Selbstabbildung B = S −1 AS den Standardvektorraum Kn in sich ab, ist also eine quadratische Matrix. Daher ist χA (x) := det(B − xI) definiert. Jeder Term der Determinante ist ein Produkt von n konstanten oder linearen Faktoren, also Y ein Polynom vom Grad h¨ochstens n. Der einzige Term vom Grad n ist dabei das Produkt (Bjj − x) mit h¨ochstem Koeffizient (−1)n . Daher hat χA genau den Grad n. Ist nun S0 : Kn → V eine beliebige Karte von V , so ist C := S −1 S0 ∈ Kn×n eine nichtsingul¨are quadratische Matrix. Wegen A = SBS −1 findet man, daß det(S0−1 AS0 − xI) = det(S0−1 SBS −1 S0 − xI) = det(C −1 BC − xI) = det(C −1 (B − xI)C) = (det C)−1 det(B − xI) det C = det(B − xI) = χA (x) unabh¨angig von der benutzten Karte ist. Daher gilt (ii). Die Eigenwerte von A sind dieselben wie die Eigenwerte der zu A ¨ahnlichen Matrix B. Nun ist λ genau dann Eigenwert von B, wenn B −λI singul¨ar ist, also χA (λ) = det(B −λI) = 0, d.h. wenn λ Nullstelle des charakteristischen Polynoms von A ist. Daher gilt (iii). Ist A − λI bijektiv, so ist die Inverse beschr¨ankt, da V endlich-dimensional ist. Ist also λ ∈ Sp A, so kann A − λI nicht bijektiv sein. A − λI ist dann aber auch nicht injektiv, da Definitionsbereich und Zielraum dieselbe endliche Dimension haben. Also ist

306

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

dim Eλ = dim Null(A − λI) > 0, d.h. λ ist ein Eigenwert, insbesondere in Sp A. Da χA (x) als Polynom vom Grad n mindestens eine und h¨ochstens n Nullstellen hat, ist Sp A nichtleer und endlich. ⊓ ⊔ 18.17 Proposition A sei lineare Selbstabbildung eines n-dimensionalen Vektorraums V u ¨ ber C. (i) Die algebraische Vielfachheit eines Eigenwerts λ von A ist mindestens so groß wie seine geometrische Vielfachheit dim Eλ . (ii) Sind λ1 , . . . , λj verschiedene Eigenwerte von A, so ist dim(Eλ1 + . . . + Eλj ) = dim Eλ1 + . . . + dim Eλj . Beweis. (i) Sei d = dim Eλ . Wir w¨ahlen eine Basis s1 , . . . , sd von Eλ , und erg¨anzen sie zu einer Basis s1 , . . . , sn von V . Die zugeh¨orige lineare Abbildung S = (s1 , . . . , sn ) ist dann bijektiv, und B = S −1 AS ist eine zu A ¨ahnliche n × n-Matrix. Wegen Bek = S −1 ASek = S −1 Ask = S −1 (λsk ) = λS −1 sk = λS −1 Sek = λek

f¨ ur k = 1, . . . , d hat B − xI die Form B − xI =

(λ − x)I ∗ 0 ∗

!

mit einer d-dimensionalen Einheitsmatrix im linken oberen Eck. Herausheben der d Faktoren λ − x in den ersten d Spalten der Determinante det(B − xI) zeigt, daß die algebraische Vielfachheit von λ mindestens d ist. (ii) Sei dk = dim Eλk . Wir w¨ahlen f¨ ur jedes k = 1, . . . , j eine Basis sk1 , . . . , skdk von Eλk . Die behauptete Dimensionsformel folgt sofort, wenn wir beweisen k¨onnen, daß alle skl zusammen eine Basis von E := Eλ1 + . . . + Eλj bilden. X Ist x ∈ E, so gibt es Vektoren xk ∈ Eλk (k = 1, . . . , j) mit x = xk . Wir zeigen, daß die Darstellung eindeutig ist. (In algebraischer Sprache sagt man, E sei X Xeine direkte X Summe der Eλk .) Ist n¨amlich auch x = yk mit yk ∈ Eλk , so folgt aus xk = yk durch X X X X Multiplikation mit A zun¨achst λk xk = Axk = Ayk = λk yk , da die xk und yk Eigenvektoren zum Eigenwert λk sind. Wiederholung desselben Arguments liefert dasselbe ur e = 0, 1, 2, . . . statt λk , und durch Linearkombination findet man mit λek f¨ X X p(λk )xk = p(λk )yk f¨ ur beliebige Polynome p. Setzen wir f¨ ur festes k speziell Y p(t) := (t − λj ), j6=k

so bleibt von beiden Summen nur ein Term:

Y j6=k

(λk − λj )xk =

Y (λk − λj )yk . Da die j6=k

Eigenwerte verschieden sind, kann man den gemeinsamen Faktor k¨ urzen und findet xk = yk . Das gilt f¨ ur alle k, also ist x = y.

307 Nun l¨aßt sich jedes xk eindeutig als Linearkombination von sk1 , . . . , skdk schreiben; also ist x eindeutig als Linearkombination der skl dargestellt. Alle skl zusammen bilden daher eine Basis von E. ⊓ ⊔ 18.18 Definition Eine lineare Selbstabbildung heißt diagonalisierbar, wenn sie zu einer Diagonalmatrix ¨ahnlich ist, und defektiv, falls es einen Eigenwert gibt, dessen geometrische Vielfachheit kleiner ist als seine algebraische Vielfachheit. 18.19 Satz Die folgenden Aussagen u ¨ ber eine lineare Selbstabbildung A eines endlichdimensionalen Vektorraums V u ¨ ber C sind gleichwertig: (i) A ist diagonalisierbar. (ii) V besitzt eine Basis aus Eigenvektoren von A. (iii) A ist nicht defektiv. Gelten diese Aussagen, so existiert eine Zerlegung A = SΛS −1 ,

(11)

wo Λ eine Diagonalmatrix ist, deren Diagonale die Eigenwerte von A entsprechend ihrer Vielfachheit enth¨alt, und S : Kn → V ein Isomorphismus ist, dessen Spalten zugeh¨orige Eigenvektoren sind. Eine solche Zerlegung nennt man eine Spektralzerlegung von A. Beweis. (i)⇒(ii): Ist A diagonalisierbar, so gibt es einen Isomorphismus S : Kn → V und eine Diagonalmatrix Λ, so daß A = SΛS −1 , also AS = SΛ. Da S regul¨ar ist, bilden die Spalten Sek von S eine Basis von V , und wegen ASek = SΛek = S(Λkk ek ) = Λkk Sek sind alle Spalten Eigenvektoren. (ii)⇒(i): Hat A eine Basis aus Eigenvektoren, so ist die lineare Abbildung S, die diese Basis als Spalten hat, ein Isomorphismus. Mit den zugeh¨origen Eigenwerten λk gilt AS:k = λk S:k . Bilden wir nun die Diagonalmatrix Λ mit den Diagonalelementen Λkk = λk , so ist AS:k = Λkk S:k = Λkk Sek = S(Λkk ek ) = SΛ:k f¨ ur alle k, also AS = SΛ. Es folgt A = SΛS −1 . (ii)⇔(iii): V besitzt genau dann eine Basis aus Eigenvektoren von A, wenn sich jeder Punkt von V als Linearkombination von Eigenvektoren darstellen l¨aßt. Sind λ1 , . . . , λs die verschiedenen Eigenwerte, so ist das a¨quivalent zu V = Eλ1 + . . . + Eλs und daher zu dim(Eλ1 + . . . + Eλs ) = dim V = n. Nun ist aber n die Summe der algebraischen Vielfachheiten; wegen Proposition 18.17 gilt das aber genau dann, wenn alle algebraischen Vielfachheiten mit den geometrischen u ¨bereinstimmen. Die noch fehlende Aussage u ¨ber die Vielfachheit folgt aus Y det(Λ − xI) = (Λkk − x).

⊓ ⊔

308

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Im Rest des Kapitels betrachten wir nur noch den Spezialfall, wo V ein Standardvektorraum ist, die linearen Selbstabbildungen also quadratische Matrizen sind. Der Wichtigkeit wegen formulieren wir f¨ ur diesen Spezialfall einen Teil von Satz 18.16 besonders und eine Folgerung daraus. ¨ 18.20 Satz (i) Ahnliche Matrizen A und B haben dieselben Eigenwerte und dasselbe charakteristische Polynom det(A−xI) = det(B−xI). Die Eigenwerte sind genau die Nullstellen des charakteristischen Polynoms. (ii) A ∈ Cn×n habe die Eigenwerte λ1 , . . . , λn , wobei jeder Eigenwert entsprechend seiner algebraischen Vielfachheit wiederholt wird. Dann gilt tr A =

n X

λk ,

det A =

k=1

n Y

λk .

(12)

k=1

Beweis. (i) folgt direkt aus Satz 18.16, da die Identit¨at eine Karte ist. (ii) Das charakteristische Polynom hat den h¨ochsten Koeffizienten (−1)n , also die Faktorzerlegung n n Y Y n det(A − xI) = (−1) (x − λk ) = (λk − x). k=1

k=1

F¨ ur x = 0 ergibt sich die Determinantenformel. Aus Definition 9.13 erh¨alt man det(A − xI) =

n Y

k=1

(Akk − x) + ( Polynom vom Grad ≤ n − 2),

und die Spurformel folgt durch Vergleich der Koeffizienten X X λk Akk = (−1)n−1 (−1)n−1 von xn−1 .

18.21 Beispiel. F¨ ur eine 2 × 2-Matrix A = det(A − xI) = det

a b c d

a−x b c d−x

!

!

⊓ ⊔

ist

= (a − x)(d − x) − bc,

also hat A das charakteristische Polynom

χA (x) = x2 − (a + d)x + (ad − bc) = x2 − (tr A)x + det A. Die beiden Eigenwerte λ erh¨alt man also durch L¨osen der quadratischen Gleichung λ2 − (tr A)λ + det A = 0 und die zugeh¨origen Eigenwerte durch L¨osen der entsprechenden homogenen Gleichungssysteme (A − λI)x = 0.

309 2 1 3 4

!

, so ist χA (x) = x2 −6x+5 mit den Nullstellen λ1 = 1 und λ2 = 5. Die ! ! 1 1 x1 Eigenvektoren zum Eigenwert λ1 = 1 erh¨alt man aus = 0 als beliebige 3 3 x2 ! ! ! 1 −3 1 x1 Vielfache von , und die zum Eigenwert λ2 = 5 aus = 0 als −1 3 −1 x2 ! 1 beliebige Vielfache von . 3 Ist z.B. A =

Da a¨hnliche Matrizen dieselben Eigenwerte haben, kann man versuchen, zu einer Matrix A eine m¨oglichst einfache ¨ahnliche Matrix B = S −1 AS zu finden, deren Eigenwerte man ¨ sofort angeben kann. Man schreibt solche Ahnlichkeitsaussagen in der Regel als ¨aquivalente −1 Faktorisierungen A = SBS , wobei man je nachdem Einschr¨ankungen an B oder S verlangt. Die folgenden einfachen Eigenschaften geben Hinweise, wie man vorgehen muß (vgl. auch Beispiel 18.12(i)). 18.22 Proposition (i) Die Eigenwerte einer quadratischen Dreiecksmatrix sind genau ihre Diagonalelemente. (ii) Ist A = SRS −1 mit einer oberen Dreiecksmatrix R und einer nichtsingul¨aren Matrix S, so ist die erste Spalte von S ein Eigenvektor zum Eigenwert R11 . (iii) Ist A = SΛS −1 mit einer Diagonalmatrix Λ und einer nichtsingul¨aren Matrix S, so ist die kte Spalte von S ein Eigenvektor zum Eigenwert Λkk . n Beweis. (i) Ist n¨amlich Y R ∈ K eine Dreiecksmatrix, so ist auch R−xI eine Dreiecksmatrix, also det(R − xI) = (Rkk − x). Die Eigenwerte sind genau die Nullstellen davon, also die Rkk .

(ii) folgt aus AS:1 = ASe1 = SRe1 = S(R11 e1 ) = R11 Se1 = R11 S:1 und (iii) aus AS:k = ASek = SΛek = S(Λkk ek ) = Λkk Sek = Λkk S:k . ⊓ ⊔ 18.23 Beispiele. 2 1 3 4 !

!

aus dem vorigen Beispiel hat die beiden linear unabh¨angigen ! 1 1 und zu den Eigenwerten 1 und 5. Daher ist A diagonalisierEigenvektoren −1 3 ! ! 1 1 1 0 bar. Eine Spektralzerlegung ist A = SΛS −1 mit S = und Λ = . −1 3 0 5 (i) Die Matrix A =

310

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

! ! 4 1 4−x 1 (ii) Die Matrix A = hat det = (4 − x)2 als charakteristisches 0 4 0 4−x Polynom und daher den einzigen Eigenwert λ = 4 mit algebraischer Vielfachheit 2. Aus ! ! ! 0 1 x1 x2 der Gleichung 0 = (A − 4I)x = = findet man als zugeh¨orige 0 0 x2 0 Eigenvektoren nur die Vielfachen von e1 . Also hat der Eigenwert nur die geometrische Vielfachheit 1, es gibt keine zwei linear unabh¨angigen Eigenvektoren, und die Matrix ist nicht diagonalisierbar, sondern defektiv. Schurzerlegung und unit¨ are Spektralzerlegung. W¨ahrend man nach Beispiel 18.23(ii) zu einer gegebenen Matrix nicht immer eine dazu ¨ahnliche Diagonalmatrix finden kann, gibt es immer eine ¨ahnliche Dreiecksmatrix. Dabei kann man sogar die Transformationsmatrix noch als unit¨are Matrix w¨ahlen. 18.24 Satz (Schur-Normalform) Jede quadratische Matrix A ∈ Cn×n l¨aßt sich in der Form A = QRQ∗ = QRQ−1 mit einer unit¨aren Matrix Q ∈ Cn×n und einer oberen Dreiecksmatrix R ∈ Cn×n schreiben. Sind A und alle Eigenwerte von A reell, so k¨onnen Q und R reell gew¨ahlt werden. Beweis. (induktiv) F¨ ur n = 1 ist die Aussage mit Q = I richtig. Angenommen, die Aussage gilt f¨ ur n − 1 statt n.

Ist A = QRQ−1 , so ist die erste Spalte von A nach Proposition 18.22 ein Eigenvektor von A. Wir w¨ahlen daher ein Eigenpaar (λ, x) von A und gem¨aß Satz 18.5(iv) eine unit¨are Matrix Q, deren erste Spalte ein Vielfaches αx von x ist. Dann ist AQ:1 = A(αx) = αAx = αλx = λQ:1 , die erste Spalte von Q−1 AQ ist also Q−1 AQe1 = Q−1 (λQe1 ) = λe1 . Wir k¨onnen also ! T λ b Q−1 AQ = 0 B mit einem Vektor b ∈ Cn−1 und einer (n − 1) × (n − 1)-Matrix B schreiben. Nach Induktionsannahme gibt es eine unit¨are Matrix Q1 und eine obere Dreiecksmatrix R1 mit B = Q1 R1 Q−1 1 . Nun ist ! ! T λ bT λ b A = Q Q−1 Q−1 = Q 0 B 0 Q1 R1 Q−1 ! ! !1 −1 T 1 0 λ b 1 0 = Q Q−1 = Q0 R0 Q−1 0 0 Q1 0 R1 0 Q1 mit der oberen Dreiecksmatrix R0 =

λ bT 0 R1

!

Q0 = Q

1 0 0 Q1

!

und der Matrix

,

311 die wegen Q∗0 Q0 = =

1 0 0 Q1

!∗

1 0 0 Q∗1 Q1

Q∗ Q ! =

! 1 0 = 0 Q1 ! 1 0 =I 0 I

1 0 0 Q∗1

!

1 0 0 Q1

!

unit¨ar ist. Sind A und alle Eigenwerte von A reell, so kann das Eigenpaar (λ, x) reell gew¨ahlt werden, und die Matrix aus dem Hilfssatz wird reell. Damit bleiben alle Gr¨oßen in dem obigen Beweis reell, so daß auch die resultierende Faktorisierung reell ist. ⊓ ⊔ Die Konstruktion der Schur-Zerlegung in konkreten F¨allen folgt genau dem Beweis. Die Rechnungen sind schon f¨ ur 3×3-Matrizen aufwendig und werden in der Praxis per Computer erledigt. Die Details behandelt man in Vorlesungen u ¨ber numerische Mathematik. Im Fall hermitescher Matrizen lassen sich weiterreichende Aussagen machen. 18.25 Satz (i) Jede hermitesche Matrix A ∈ Kn×n l¨aßt sich in der Form A = QΛQ∗ = QΛQ−1

(13)

mit einer unit¨aren Matrix Q ∈ Kn×n und einer reellen Diagonalmatrix Λ schreiben, deren Diagonalelemente nach absteigender Gr¨oße geordnet sind. Eine Faktorisierung (13) mit diesen Eigenschaften nennt man eine unit¨ are (f¨ ur K = R auch orthogonale) Spektralzerlegung von A. (ii) In einer unit¨aren Spektralzerlegung (13) sind die Diagonalelemente von Λ gerade die Eigenwerte von A, und die Spalten von Q sind zugeh¨orige Eigenvektoren, die paarweise orthogonal sind. Beweis. (i) Es ist A = QRQ∗ mit einer unit¨aren Matrix Q und einer oberen Dreiecksmatrix R = Q∗ AQ. Da A hermitesch ist, ist R∗ = (Q∗ AQ)∗ = Q∗ A∗ Q = Q∗ AQ = R, also ist auch R hermitesch. Eine hermitesche Dreiecksmatrix ist aber diagonal, da Rjk = 0 f¨ ur j > k und Rjk = Rkj = 0 f¨ ur j < k, und die Diagonalelemente sind wegen Rkk = Rkk reell. Durch Permutation der Spalten von Q und entsprechende Permutationen der Zeilen und Spalten von R kann man erreichen, daß die Diagonalelemente von R nach absteigender Gr¨oße geordnet sind. Dann hat Λ = R die behaupteten Eigenschaften. (ii) Die Spalten von Q sind wegen AQ:k = (QΛQ∗ )Qek = QΛ(Q∗ Q)ek = QΛek = Q(Λkk ek ) = Λkk Qek = Λkk Q:k Eigenvektoren zu den Eigenwerten Λkk . Da Q unit¨ar ist, sind die Spalten von Q paarweise orthogonal, und da Q regul¨ar ist, bilden die Spalten eine Basis des Kn . ⊓ ⊔ Allgemeiner l¨aßt sich beweisen, daß es zu jeder Menge paarweise kommutierender Matrizen Al (l = 1, . . . , s) stets eine unit¨are Matrix Q gibt, so daß alle Matrizen Q∗ Al Q (l = 1, . . . , s)

312

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

obere Dreiecksmatrizen (und im Fall, daß alle Al hermitesch sind, sogar reelle Diagonalmatrizen) sind. 18.26 Folgerung (i) Jede hermitesche Matrix ist diagonalisierbar; es gibt eine Basis von orthogonalen Eigenvektoren, und alle Eigenwerte sind reell. (ii) Ist A eine hermitesche Matrix mit dem einzigen Eigenwert λ, so ist A = λI. Beweis. (i) folgt aus Satz 18.25 mit Satz 18.20 und Proposition 18.22(i). (ii) Es ist dann n¨amlich Λ = λI, also A = QΛQ∗ = λQQ∗ = λI. 18.27 Beispiel. Das charakteristische Polynom  5 0  A= 0 2 3 0

ist

⊓ ⊔

der Matrix  3  0  5



 ! 5−x 0 3 5 − x 3   det(A − xI) = det  0 2−x 0  = (2 − x) det 3 5−x 3 0 5−x = (2 − x)((5 − x)2 − 32 ) = (2 − x)(2 − x)(8 − x), die Eigenwerte sind wie zu erwarten positiv und reell. Zum doppelten Eigenwert λ = 2 erhalten wir zugeh¨orige Eigenvektoren (s, t, −s)T aus    3 0 3 x     0 0 0   y  = 0, 3 0 3 z und zum einfachen Eigenwert λ = 8 erhalten wir zugeh¨orige Eigenvektoren (t, 0, t)T aus    −3 0 3 x     0 −6 0   y  = 0. 3 0 −3 z Eine orthogonale Spektralzerlegung (Probe machen!) ist   √  √ 2 2 0    Q= 1 0 0 , Λ =  √ √ 2 0 − 2

A = QΛQ∗ mit  2 0 0  0 2 0 . 0 0 8

Wie zu erwarten, sind die Spalten von Q paarweise orthogonale Eigenvektoren der L¨ange 1.

313 Als Anwendung der unit¨aren Spektralzerlegung beweisen wir das bisher fehlende Argument im Beweis der Charakterisierung der Abstandsinvarianz (Satz 18.4). 18.28 Proposition Eine affine Abbildung z → Bz + b bildet genau dann die euklidische Einheitskugel auf sich ab, wenn B unit¨ar und b = 0 ist. Beweis. Ist B unit¨ar und b = 0, so bleibt der Nullpunkt und der Abstand vom Nullpunkt erhalten; daher wird die euklidische Einheitskugel auf sich abgebildet. Umgekehrt bilde φ : z → Bz + b die euklidische Einheitskugel auf sich ab. Wir betrachten eine unit¨are Spektralzerlegung B ∗ B = Q∗ ΛQ der hermiteschen Matrix B ∗ B und machen die Substitution y := Qz. Da Q unit¨ar ist, haben y und z dieselbe 2-Norm, und es ist z = Q∗ y. Die Einheitskugel kann also durch B[0; 1] = {Q∗ y | kyk2 ≤ 1} beschrieben werden. Nach Annahme ist also B[0; 1] = φ(B[0; 1]) = {BQ∗ y + b | kyk2 ≤ 1} = {x = Ay + b | kyk2 ≤ 1} mit der Matrix A = BQ∗ , und die Matrix A∗ A = QB ∗ BQ∗ = Λ ist diagonal. Setzen wir außerdem c = A∗ b und γ = 1 − b∗ b, so ist kxk22 = x∗ x = (Ay + b)∗ (Ay + b) = y ∗ A∗ Ay + b∗ Ay + y ∗ A∗ b + b∗ b = y ∗ Λy + c∗ y + y ∗ c + 1 − γ. Die Beziehung kyk2 ≤ 1 ist nun gleichwertig mit kxk2 ≤ 1, also gilt kyk2 ≤ 1



y ∗ Λy + c∗ y + y ∗ c ≤ γ.

(14)

Angenommen, es w¨are c 6= 0. Dann w¨are cj 6= 0 f¨ ur ein j. Um einen Widerspruch zu erhalten, spezialisieren wir (14) auf Vielfache y = tcj ej des jten Einheitsvektors mit reellem t und erhalten |t| |cj | ≤ 1 ⇔ |cj |2 (t2 Λjj + 2t) ≤ γ. Beide Ungleichungen beschreiben Intervalle f¨ ur t, die identisch sein m¨ ussen. Insbesondere −1 m¨ ussen die Randpunkte t = ±|cj | des linken Intervalls auch Randpunkte des rechten Intervalls sein, also |cj |2 (t2 Λjj + 2t) = γ erf¨ ullen. Einsetzen ergibt Λjj ± 2|cj | = γ. Wegen cj 6= 0 kann das aber nicht f¨ ur beide Vorzeichen gleichzeitig richtig sein, Widerspruch.

Also ist c = 0. Spezialisieren wir nun (14) auf y = tej mit reellem t und beliebigem j, so erhalten wir |t| ≤ 1 ⇔ t2 Λjj ≤ γ.

Das gilt offenbar genau dann, wenn Λjj = γ > 0 ist. Also ist A∗ A = Λ = γI. Es folgt A−∗ = γ −1 A und daher b = A−∗ c = 0, γ = 1 − b∗ b = 1, Λ = I und schließlich B ∗ B = Q∗ ΛQ = Q∗ Q = I. Also ist B unit¨ar und b = 0. ⊓ ⊔ Orthogonale Projektion und Spektralschar. Die in der Spektralzerlegung enthaltene Information u ¨ber die Eigenr¨aume l¨aßt sich mit Hilfe orthogonaler Projektionen elegant darstellen.

314

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

18.29 Satz U sei Unterraum von Kn . (i) Die Menge U ⊥ := {x ∈ Kn | u∗ x = 0 f¨ ur alle u ∈ U } ist ein Unterraum von Kn mit U ⊥ ∩ U = {0} und dim U ⊥ = n − dim U . Man nennt U ⊥ das orthogonale Komplement von U . (ii) Jedes x ∈ Kn l¨aßt sich eindeutig als x = x′ + x′′ mit x′ ∈ U , x′′ ∈ U ⊥ zerlegen, und es ist x′′ ⊥x′ , kxk22 = kx′ k22 + kx′′ k22 . Die Abbildung P : x → x′ ist linear, und es gilt P 2 = P ∗ = P,

U = Range P,

kxk22 = kP xk22 + kx − P xk22 .

(15) (16)

Man nennt x′ = P x die orthogonale Projektion von x auf U , und P den orthogonalen Projektor auf U . (iii) Ist P ∈ Kn×n eine Matrix mit P 2 = P ∗ = P , so ist P der orthogonale Projektor auf U = Range P . Beweis. (i) Ist x, y ∈ U ⊥ , so ist u∗ (αx + βy) = αu∗ x + βu∗ y = 0 f¨ ur alle u ∈ U , also αx + βy ∈ U ⊥ . Daher ist U ⊥ ein Unterraum von Kn . Ist u ∈ U ⊥ ∩ U , so ist 0 = u∗ u = kuk22 , also u = 0; daher ist U ⊥ ∩ U = {0}. Die Dimensionsaussage ergibt sich gleich aus dem Beweis von (ii). (ii) Wir w¨ahlen eine Orthonormalbasis q1 , . . . , qs von U und erg¨anzen sie zu einer Orthonormalbasis q1 , . . . , qn von Kn . Nach Konstruktion ist U = Span{q1 , . . . , qs }. Jedes u ∈ U s s X X ∗ ist Linearkombination u = αk qk ; f¨ ur j > s ist qj u = αk qj∗ qk = 0, also qj ∈ U ⊥ . k=1

Insbesondere ist

k=1

U ′ := Span{qs+1 , . . . , qn } ⊆ U ⊥ .

(17)

Jedes x ∈ Kn l¨aßt sich eindeutig als Linearkombination x=

n X

αk qk

(18)

k=1

schreiben; es ist also x = x′ + x′′ mit ′

x =

s X k=1

αk qk ∈ U,

′′

x =

n X

k=s+1

αk qk ∈ U ′ ⊆ U ⊥ ;

insbesondere sind x′ und x′′ orthogonal. Aus einer beliebigen Darstellung x = y ′ + y ′′ mit y ′ ∈ U und y ′′ ∈ U ⊥ folgt y ′ − x′ = y ′ − x + x′′ = −y ′′ + x′′ ∈ U ⊥ ; wegen y ′ − x′ ∈ U und U ⊥ ∩ U = {0} folgt also y ′ − x′ = y ′′ − x′′ = 0 und daher y ′ = x′ , y ′′ = x′′ . Also ist die Darstellung eindeutig.

315 Ist insbesondere x ∈ U ⊥ , so ist x = 0 + x eine Darstellung der gesuchten Art, also 0 = x′ und x = x′′ ∈ U ′ . Es folgt U ⊥ ⊆ U ′ , wegen (17) also U ⊥ = U ′ . Daher ist dim U ⊥ = dim U ′ = n − s = n − dim U .

Aus (18) findet man durch Multiplikation mit qj∗ die Beziehung qj∗ x = αj ; also ist x′ =

s X

qk αk =

k=1

mit der Matrix P = wegen qj∗ qk = δjk ist 2

s X k=1

P =(

s X

qk qk∗ x = P x

k=1

qk qk∗ , und es wird x′′ = x − x′ = x − P x. Offenbar ist P ∗ = P und

s X j=1

qj qj∗ )(

s X k=1

qk qk∗ )

=

s X

qj qj∗ qk qk∗

=

j,k=1

s X

qk qk∗ = P.

k=1

Da die x′ gerade U aufspannen, ist außerdem Range P = U . Schließlich ist (16) gerade der Satz von Pythagoras f¨ ur die orthogonalen Vektoren x′ = P x ∈ U und x′′ = x − P x ∈ U ⊥ , kP xk22 + kx − P xk22 = (P x)∗ (P x) + (x − P x)∗ (x − P x) = x∗ P ∗ P x + x∗ x − x∗ P ∗ x − x∗ P x + x∗ P ∗ P x = 2x∗ (P 2 − P )x + x∗ x = x∗ x = kxk22 . (iii) Ist u ∈ U , so ist u = P v f¨ ur ein v ∈ Kn , also P u = P 2 v = P v = u. Daher l¨aßt P alle Vektoren in U unver¨andert. F¨ ur beliebige x ist u∗ x = (P u)∗ x = u∗ P ∗ x = u∗ P x, also u∗ (x − P x) = 0 und daher x′′ := x − P x ∈ U ⊥ . Mit x′ := P x ∈ Range P = U ist x = x′ + x′′ die eindeutige Zerlegung in (ii), also P der orthogonale Projektor. ⊓ ⊔ Wir k¨onnen nun das Kleinste-Quadrate-Problem kAx − bk2 = min! mit Hilfe der orthogonalen Projektion geometrisch interpretieren: Ist P der orthogonale Projektor auf U = Range A, so bleibt Ax bei Multplikation mit P fest, also ist P (Ax−b) = P Ax−P b = Ax−P b und Ax−b−P (Ax−b) = P b−b. Damit ergibt sich aus (16) f¨ ur Ax−b statt x die Beziehung kAx − bk22 = kAx − P bk22 + kP b − bk22 ≥ kP b − bk22 . Die untere Schranke wird angenommen, d.h. es ist min kAx − bk22 = kP b − bk22 , da man Ax = P b wegen P b ∈ Range P = U = Range A l¨osen kann. (Insbesondere existiert auch eine L¨osung, wenn A nicht vollen Rang hat!)

316

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE











 

U

Px

• ·

•

x



....... ................ ..... ... .... ... ........... ..... . . ... .. ... ... ... ... ... ... ... ... . ... . .. ... . . ... .. . ... . ................. ... ................ ... ................ .. .. ................ .................................... .. .. ..............









 

x − Px •

Geometrisch bildet der orthogonale Projektor also einen Punkt x auf den am n¨achsten liegenden Punkt P x von U ab; die Gerade durch x und P x ist parallel zu x − P x und steht senkrecht auf U . Die Tatsache, daß jede hermitesche Matrix eine Orthonormalbasis aus Eigenvektoren hat, ergibt nun mit Hilfe von orthogonalen Projektionen eine u ¨bersichtliche Darstellung der Zerlegung in Eigenr¨aume. 18.30 Satz A ∈ Cn×n sei eine hermitesche Matrix mit den (nach Folgerung 18.26 reellen) Eigenwerten λ1 < . . . < λm . (i) Es gibt eindeutig bestimmte Matrizen P1 , . . . , Pm (n¨amlich die orthogonalen Projektoren Pl auf die Eigenr¨aume Eλl ) mit den Eigenschaften Range Pl = Null(A − λl ) = Eλl ,

(19)

Pl2 = Pl∗ = Pl ,

(20)

Pk Pl = 0 f¨ ur k 6= l, X Pl = I.

(21) (22)

Man nennt P1 , . . . , Pm die zu A geh¨orige Spektralschar. (ii) Jeder Vektor x ∈ Cn l¨aßt sich auf eindeutige Weise als Summe von Vektoren in Eλl schreiben, n¨amlich X x= Pl x. (23)

Beweis. (i) Wir betrachten eine Orthonormalbasis q1 , . . . , qn aus Eigenvektoren qj von A. Wir bezeichnen die Menge der Indizes j, f¨ ur die qj Eigenvektor zum Eigenwert λl ist, mit Jl ; dann ist Eλl = Span{qj | j ∈ Jl }. Wie im Beweis von Satz 18.29 ist Pl :=

X j∈Jl

qj qj∗

317 der orthogonale Projektor auf Eλl , und (19) und (20) folgen. (21) ergibt sich aus X X X qj qj∗ = qh qh∗ qj qj∗ = 0 Pk Pl = qh qh∗ h∈Jk

j∈Jl

h∈Jk ,j∈Jl

f¨ ur k 6= l, da dann Jk und Jl disjunkt sind und daher alle qh∗ qP j verschwinden. Schließlich hat n jedes x ∈ K eine Darstellung als Linearkombination x = nk=1 αj qj , und wie im Beweis von Satz 18.29 ist qk∗ x = αk . Also ist x=

n X

qj αj =

k=1

n X

qj qj∗ x =

k=1

X

Pl x,

l

d.h. (23) gilt. Da x beliebig war, folgt daraus (22). (ii) Wegen (19) ist (23) eine Darstellung als Summe von Vektoren in Eλl . Ist umgekehrt P P x = ul mit ul ∈ Eλl , so hat ul wegen (19) die Form ul = Pl vl , also ist x = Pl vl . 2 Multiplikation mit Pk gibt wegen (21) und (20) die Beziehung Pk x = Pk vk = Pk vk = uk ; also ist uk = Pk vk eindeutig bestimmt. ⊓ ⊔ Definitheit. Eine f¨ ur die Anwendungen wichtige Klasse von Matrizen kann durch die Vorzeichen ihrer Eigenwerte charakterisiert werden. 18.31 Definition (i) Eine quadratische Matrix A ∈ Kn×n heißt positiv definit, falls Re(x∗ Ax) > 0 f¨ ur alle x ∈ Kn \ {0}, und positiv semidefinit, falls Re(x∗ Ax) ≥ 0 f¨ ur alle x ∈ Kn . (F¨ ur K = R ist in diesen Formeln das Re u ussig.) ¨ berfl¨ (ii) A heißt negativ (semi)definit, falls −A positiv (semi)definit ist. 18.32 Proposition (i) Jede positiv definite Matrix ist regul¨ar. (ii) Eine quadratische Matrix A ist genau dann positiv (semi)definit, wenn die hermitesche Matrix B = A + A∗ positiv (semi)definit ist. (iii) F¨ ur hermitesche Matrizen A ist x∗ Ax reell (der Realteil in Definition 18.31(i) also u ussig). ¨ berfl¨ (iv) F¨ ur beliebige Matrizen A ∈ Km×n sind die Matrizen AA∗ und A∗ A positiv semidefinit. Beweis. (i) Ist A positiv definit und Ax = 0, so ist x∗ Ax = 0, also nach Definition x = 0. Daher ist A injektiv, und als quadratische Matrix daher regul¨ar. (iii): Es ist x∗ Ax = (x∗ Ax)∗ = x∗ A∗ x∗∗ = x∗ A∗ x.

318

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Ist A hermitesch, so folgt, daß x∗ Ax beim Konjugieren unver¨andert bleibt, also reell ist. (ii) Wegen B ∗ = (A + A∗ )∗ = A∗ + A = B ist B hermitesch, und wegen x∗ Bx = x∗ (A + A∗ )x = x∗ Ax + x∗ A∗ x = x∗ Ax + x∗ Ax = 2 Re(x∗ Ax) ist Re(x∗ Ax) > 0(≥ 0) gleichwertig zu x∗ Bx > 0(≥ 0). (iv) Es ist n¨amlich und

x∗ AA∗ x = (A∗ x)∗ A∗ x = kA∗ xk22 ≥ 0 x∗ A∗ Ax = (Ax)∗ Ax = kAxk22 ≥ 0.

⊓ ⊔

18.33 Satz (i) Eine hermitesche Matrix A ist genau dann positiv semidefinit, wenn alle Eigenwerte von A nichtnegativ sind. (ii) Eine hermitesche Matrix A ist genau dann positiv definit, wenn alle Eigenwerte von A positiv sind. Beweis. (i) Ist A positiv semidefinit und x ein in der 2-Norm normierter Eigenvektor zum Eigenwert λ, so ist 0 ≤ x∗ Ax = x∗ (λx) = λkxk22 = λ. Also sind alle Eigenwerte nichtnegativ. Sind umgekehrt alle Eigenwerte nichtnegativ, so finden wir mit einer unit¨aren Spektralzerlegung A X = QΛQ∗ von A und y = Q∗ x die geforderte Beziehung x∗ Ax = x∗ QΛQ∗ x = y ∗ Λy = Λkk |yk |2 ≥ 0.

(ii) folgt analog; Probleme macht h¨ochstens der Fall y = 0; aber dann ist 0 = Qy = QQ∗ x = x, und alles stimmt. ⊓ ⊔

Satz 18.33 (in Verbindung mit Proposition 18.32, falls A nicht hermitesch ist) gibt eine explizit nachpr¨ ufbare Bedingung daf¨ ur, ob eine gegebene n × n-Matrix A positiv (semi)definit ist. Jedoch ist die Berechnung der Eigenwerte unn¨otig m¨ uhsam. F¨ ur gr¨oßere n wird man normalerweise den Computer zu Hilfe nehmen, wo die Existenz der CholeskyZerlegung (Satz 18.43) das effizienteste Kriterium ist. F¨ ur n ≤ 3 ist jedoch das folgende Determinantenkriterium die am einfachsten nachpr¨ ufbare Bedingung f¨ ur (Semi-)Definitheit. 18.34 Satz Eine hermitesche Matrix A ∈ Kn×n ist genau dann positiv definit (semidefinit), wenn die n fu ¨ hrenden Unterdeterminanten det A1:m,1:m (m = 1, . . . , n) positiv (nichtnegativ) sind. Beweis. Da wir das Kriterium nicht f¨ ur Beweise verwenden, k¨onnen wir den Beweis auf sp¨ater (nach Satz 18.43) verschieben. ⊓ ⊔ Singul¨ are Werte und Hauptkomponentenanalyse. F¨ ur nicht hermitesche oder rechteckige Matrizen gibt es ein Analogon der Spektralzerlegung, die Singul¨are-Werte-Zerlegung, in der links und rechts unterschiedliche unit¨are Matrizen vorkommen.

319 18.35 Satz (i) Jede Matrix A ∈ Kn×p l¨aßt sich in der Form A = U ΣV ∗

(24)

mit einer unit¨aren Matrix U ∈ Kn×n , einer reellen Diagonalmatrix   σ1 0   ...    ∈ Rn×p , σ1 > . . . > σr > 0, Σ=   σr  

0

0

und einer unit¨aren Matrix V ∈ Kp×p schreiben. Eine Faktorisierung (24) mit diesen Eigenschaften nennt man eine Singul¨ are-Werte-Zerlegung von A. Die Spalten von U nennt man die singul¨ aren Vektoren von A. (ii) Die Diagonalelemente σk = Σkk sind durch A eindeutig bestimmt. Sie heißen die singul¨ aren Werte von A. (iii) Es ist rank A = r und kAk2 = σ1 . Außerdem gilt kA−1 k2 = σn−1 , falls r = p = n. Beweis. Zur Motivation des Beweises nehmen wir zun¨achst an, wir h¨atten eine Singul¨areWerte-Zerlegung (24) von A. Dann ist A∗ A = V Σ∗ U ∗ U ΣV ∗ = V Σ∗ ΣV ∗ , und da Λ = Σ∗ Σ eine Diagonalmatrix ist, ist dies eine Spektralzerlegung von A∗ A. Insbesondere sind die Eigenwerte von A∗ A gerade die Zahlen Λkk = Σ2kk = σk2 ≥ 0. Die positiven singul¨aren Werte von A sind also gerade die der Gr¨oße nach geordneten Wurzeln der positiven Eigenwerte von A∗ A und sind daher durch A eindeutig bestimmt. Also gilt (ii). Um die Existenz einer Singul¨are-Werte-Zerlegung zu zeigen, gehen wir umgekehrt von einer Spektralzerlegung V ΛV ∗ von A∗ A aus. Die Diagonalelemente von Λ sind nach absteigender Gr¨oße geordnet; sie sind nichtnegativ, da A∗ A positiv semidefinit ist (Proposition 18.32(iv) und Satz 18.33). Daher sind die singul¨aren Werte p σk := Λkk

nichtnegative reelle Zahlen. Ist r die Zahl der positiven singul¨aren Werte, so ist σ1 > . . . > σr > 0,

σk = 0 f¨ ur k > r.

F¨ ur die Vektoren sk = AV:k gilt s∗j sk = (V:j )∗ A∗ AV:k = (V ∗ A∗ AV )jk = (V ∗ V ΛV ∗ V )jk = Λjk = δjk σk2 . F¨ ur j, k ≤ r findet man, daß die Vektoren uk = σk−1 sk f¨ ur k = 1, . . . , r ein Orthonormalsystem bilden, das wir zu einer Orthonormalbasis u1 , . . . , un von Kn erg¨anzen. F¨ ur j = k > r 2 ∗ folgt andererseits ksk k2 = sk sk = 0, also sk = 0. In beiden F¨allen ist also AV:k = sk = σk uk .

320

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Wir bilden nun die zugeh¨orige unit¨are Matrix U = (u1 , . . . , un ). Dann ist U Σ:k = U Σek = U (σk ek ) = σk uk = AV:k f¨ ur alle k, also AV = U Σ, und daher A = AV V ∗ = U ΣV ∗ . (iii) Da unit¨are Matrizen regul¨ar sind, haben A und Σ denselben Rang, und wegen rank Σ = r ist rank A = r. Zum Beweis von kAk2 = σ1 gehen wir auf die Definition kAk2 = sup{kAxk2 | kxk2 ≤ 1} zur¨ uck (Definition 7.5). Da nach Proposition 18.2(iv) die 2-Norm bei unit¨aren Abbildungen invariant bleibt, ist kAxk2 = kU ΣV ∗ xk2 = kΣV ∗ xk2 = kΣyk2 mit y = V ∗ x von der Norm kyk2 = kV ∗ xk2 = kxk2 . Da V bijektiv ist, ist also kAk2 = sup{kΣyk2 | kyk2 ≤ 1} q X X = sup{ |σk yk |2 | |yk |2 ≤ 1} q X X sup{ |σ1 yk |2 | |yk |2 ≤ 1} ≤ q X X σ12 sup{ |yk |2 | |yk |2 ≤ 1} = = σ1 .

Da diese Schranke f¨ ur y = e1 angenommen wird, ist kAk2 = σ1 .

Ist r = p = n, so sind A und Σ invertierbar, und es ist

A−1 = (U ΣV ∗ )−1 = (V ∗ )−1 Σ−1 U −1 = V Σ−1 U ∗ , da U und V unit¨ar sind. Offenbar ist das bis auf die Reihenfolge der singul¨aren Werte (die umgekehrt werden muß) gerade eine Singul¨are-Werte-Zerlegung von A−1 . Der gr¨oßte singul¨are Wert ist nun σn−1 , also ist kA−1 k2 = σn−1 . ⊓ ⊔ Die Singul¨are-Werte-Zerlegung ist f¨ ur die Datenanalyse von sehr großer Bedeutung. Sie dient in der Praxis vor allem dazu, zu einer langen Liste von Vektoren x1 , . . . , xp in einem hochdimensionalen Raum Rn einen niedrigdimensionalen Unterraum zu finden, in dessen N¨ahe alle xk liegen. Dazu berechnet man die Singul¨are-Werte-Zerlegung A = U ΣV ∗ der Matrix A = (x1 , . . . , xp ) und approximiert Σ durch eine einfachere Diagonalmatrix Σ′ , indem man alle nicht signifikanten singul¨aren Werte durch Null ersetzt. Sind nur die ersten s singul¨aren Werte signifikant (d.h. gen¨ ugend groß), so erh¨alt man xk = Aek = U ΣV ∗ ek ≈ U Σ′ V ∗ ek = U zk mit zk = Σ′ V ∗ ek . Nach Konstruktion von Σ′ sind nur die ersten s Komponenten von z von Null verschieden; also ist U zk eine Linearkombination der ersten s singul¨aren Vektoren. Im Rahmen der benutzten Approximation liegen also alle xk in der N¨ahe des s-dimensionalen Unterraums, der von den ersten s singul¨aren Vektoren aufgespannt wird. Je nachdem, welchen Fehler man toleriert, kann man s und damit den Unterraum kleiner oder gr¨oßer w¨ahlen. Offenbar steckt die meiste Information u ¨ber die Lage der xk in den singul¨aren Vektoren zu den gr¨oßten singul¨aren Werten. Man nennt daher diese singul¨aren Vektoren auch Haupt¨ komponenten und das ganze Vorgehen eine Hauptkomponentenanalyse. Uber den gemachten Fehler gilt die folgende Optimalit¨atsaussage.

321 18.36 Satz Sei x1 , . . . , xp ∈ Rn , und PW bezeichne den orthogonalen Projektor auf den Unterraum W von Rn . Dann gilt min

dim W =s

p X k=1

kxk − PW xk k2 =

X

σl2 ,

(25)

l>s

wobei die σl die singul¨aren Werte von A = (x1 , . . . , xp ) sind. Das Minimum wird genau dann angenommen, wenn W der von den s ersten singul¨aren Vektoren von A aufgespannte Unterraum ist. (In diesem Fall ist PW xk = U Σ′ V ∗ ek gem¨aß der obigen Konstruktion.) Der Beweis ist schwierig und wird hier nicht gegeben. Beispiele f¨ ur die Anwendung der Hauptkomponentenanalyse bilden die Extraktion dominanter Bewegungsformen in der Wettervorhersage (aber auch z.B. von B¨orsenkursen) und die Datenkompression bei Bildern. Eine weitere wichtige Anwendung der Singul¨are-Werte-Zerlegung, auf die wir nicht weiter eingehen k¨onnen, ist die L¨osung von sogen. inversen Problemen bei denen der Messung nicht zug¨angliche Funktionen oder Bilder aus der Messung zug¨anglichen Daten berechnet werden sollen. Das vielleicht wichtigste Beispiel dazu ist die Computer-Tomographie. Ellipsoide. Reelle symmetrische positiv definite Matrizen haben eine geometrische Interpretation als Koeffizientenmatrizen von Ellipsoiden; ihre Spektralzerlegung findet ebenfalls eine geometrische Deutung durch die Hauptachsen der Ellipsoide. 18.37 Definition Eine Teilmenge E des Rn , die das Bild der offenen (abgeschlossenen) euklidischen Einheitskugel unter einer bijektiven affinen Abbildung ist, E = {x = Bz + b | kzk2 < 1(≤ 1)},

B ∈ Rn×n regul¨ar, b ∈ Rn ,

(26)

heißt offenes (abgeschlossenes) Ellipsoid, f¨ ur n = 2 auch Ellipse. 18.38 Satz (i) Jedes offene (abgeschlossene) Ellipsoid E ⊆ Rn ist beschr¨ankt und l¨aßt sich in der Form E := {x ∈ Rn | xT Ax + aT x + α < 0(≤ 0)}

(27)

mit einer symmetrischen, positiv definiten Matrix A ∈ Rn×n , einem Vektor a ∈ Rn und einer Zahl α ∈ R schreiben.

(ii) Die Menge (27) ist genau dann ein Ellipsoid, wenn A positiv definit ist und es einen Punkt x0 mit xT0 Ax0 + aT x0 + α < 0 gibt.

Beweis. Wir betrachten ein durch (26) gegebenes Ellipsoid E, und nehmen an, E sei abgeschlossen; der offene Fall geht analog. Wegen kxk2 = kBz + bk2 ≤ kBk2 kzk2 + kbk2 = kBk2 + kbk2 liegt E in einer Kugel um 0 mit Radius kBk2 + kbk2 , ist also beschr¨ankt.

Aus der Bijektivit¨at der affinen Abbildung folgt die Invertierbarkeit von B; wir k¨onnen nach z aufl¨osen, z = B −1 (x − b). Mit der Abk¨ urzung C = B −1 finden wir, daß x ∈ E zu 0 ≥ z T z − 1 = (x − b)T C T C(x − b) − 1 = xT C T Cx − 2(C T Cb)T x + bT b − 1

322

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

gleichwertig ist, und das hat die Form (27) mit A = C T C = C ∗ C. Offenbar ist A symmetrisch, und da aus 0 ≥ x∗ Ax = x∗ C ∗ Cx = (Cx)∗ Cx = kCxk2 folgt, daß Cx = 0 ist, also auch x = ACx = 0, ist A positiv definit. Daher gilt (i). Zum Beweis der u ¨brigen Behauptungen nehmen wir an, E sei in der Form (27) gegeben. Ist A unsymmetrisch, so ist A0 = 12 (A+AT ) symmetrisch; wegen xT A0 x = 12 (xT Ax+xT AT x) = xT Ax kann man also ohne Beschr¨ankung der Allgemeinheit annehmen, daß A symmetrisch ist. Da A reell ist, gibt es eine orthogonale Spektralzerlegung A = QΛQ∗ mit einer rellen unit¨aren Matrix Q, also ist Q∗ = QT und QQT = QT Q = I. Mit der Substitution y = QT x wird x = Qy, und es ist genau dann x ∈ E, wenn y T Λy + aT Qy+α = xT QΛQT x+aT x+α ≤ 0. Da Λ eine Diagonalmatrix mit den Diagonalelementen Λkk = λk ist, k¨onnen wir diese Bedingung mit b = QT a in der Form X (λk yk2 + bk yk ) + α ≤ 0 (28) k

schreiben. Ist ein λk < 0, so ist (28) sicher dann erf¨ ullt, wenn y = tek ist und t so groß ist, daß λk t2 + bk t + α ≤ 0 gilt. Die zugeh¨origen x sind dann wegen kxk22 = xT x = y T QT Qy = y T y = t2 unbeschr¨ankt und (27) kann kein Ellipsoid darstellen. Dasselbe gilt f¨ ur λk = 0, falls bk 6= 0, da dann t mit dem richtigen Vorzeichen immer noch beliebig groß werden kann. Ist aber λk = 0 und bk = 0, so h¨angt (28) gar nicht von yk ab. Ist also E nichtleer, so enth¨alt es mit einem Punkt x = Qy auch die ganze Gerade x = Qy + tQek , und ist wieder unbeschr¨ankt. Soll also (27) ein Ellipsoid darstellen, so m¨ ussen alle λk positiv sein. Nach Satz 18.33 ist das genau dann der Fall, wenn A positiv definit ist (und nach Proposition 18.32 u ¨bertr¨agt sich die Definitheit auch auf den unsymmetrischen Fall). Dann kann man (28) durch quadratische Erg¨anzung auf die ¨aquivalente Form X λk (yk + ck )2 ≤ γ (29) k

X mit ck = bk /2λk und γ = λk c2k − α bringen. Damit diese Ungleichung mehr als eine L¨osung hat, muß γ positiv sein; der y = −c entsprechende Vektor x0 = −Qc erf¨ ullt dann T T die Bedingung x0 Ax0 + a x0 + α = X−γ < 0. Definieren wir nun die Diagonalmatrix D p mit Dkk = λk /γ, so wird (29) zu (Dkk yk + Dkk ck )2 ≤ 1, und die weitere Substitution X z = Dy + Dc f¨ uhrt auf den Einheitskreis zk2 ≤ 1. Da man dies nach y = D−1 z − c aufl¨osen kann, besteht die Menge (27) also aus allen Punkten x = Qy = Q(D−1 z − c)

(30)

mit z ∈ B[0; 1] und ist daher ein Ellipsoid. Also gilt (ii).

⊓ ⊔

323 18.39 Beispiel. Wir betrachten die Menge 1 E := {x ∈ R3 | (x1 − x3 + 1)2 + 2(x1 + x3 )2 + (x2 − 1)2 ≤ 1}. 2 Die affine Abbildung



 φ:x→z=

√1 (x1 2√

− x3 + 1)

2(x1 + x3 ) x2 − 1

  

bildet E offenbar auf den Einheitskreis z12 + z22 + z32 ≤ 1 ab, und da die Abbildung bijektiv ist (warum?), ist E ein Ellipsoid. Multiplizieren wir die definierende Gleichung mit 2 und multiplizieren wir aus, so erhalten wir die ¨aquivalente Definition E := {x ∈ R3 | 5x21 + 2x22 + 5x23 + 6x1 x3 + 2x1 − 4x2 − 2x3 + 1 ≤ 0} von der Form (27), mit 

 5 0 3   A =  0 2 0 , 3 0 5



 2   a =  −4  , −2

α = 1.

Die orthogonale Spektralzerlegung der Matrix A wurde schon in Beispiel 18.27 berechnet. Die Eigenwerte sind alle positiv, also ist A tats¨achlich positiv definit. 18.40 Satz (i) Zu jedem offenen (abgeschlossenen) Ellipsoid E ⊆ Rn gibt es einen Punkt x0 ∈ Rn und eine Matrix H ∈ Rn×n derart, daß H T H diagonal ist und E := {x = x0 + Hz | kzk2 < 1(≤ 1)}.

(31)

x0 ist durch E eindeutig bestimmt und heißt der Mittelpunkt von E; in einer Darstellung (26) ist der Mittelpunkt gerade der Vektor b. (ii) Die Spalten von H, die sogen. Hauptachsen von E, sind zueinander paarweise orthogonal; in einer Darstellung (26) sind sie geeignete Eigenvektoren von BB T . Die L¨angen der n Hauptachsen sind durch E eindeutig bestimmt; in einer Darstellung (26) sind diese L¨angen gerade die Wurzeln der Eigenwerte von BB T (mit ihrer algebraischen Vielfachheit). Beweis. Aus dem vorhergehenden Beweis erh¨alt man eine Darstellung (31) mit x0 = −Qc und H = QD−1 ; die Matrix H T H = D−1 QT QD−1 = D−1 D−1 = (D2 )−1 = Λ−1 ist diagonal. Zwei Spalten H:j und H:k (j 6= k) stehen wegen X H:j · H:k = H:jT H:k = Hlj Hlk = (H T H)jk = 0 l

aufeinander orthogonal. Zum Beweis der Eindeutigkeit gehen wir wieder von der Darstellung (26) aus. Die Abbildung z → x = b + Bz bildet also die Einheitskugel auf das Ellipsoid E ab, und die Abbildung x → H −1 (x − x0 ) das Ellipsoid E auf die Einheitskugel. Die zusammengesetzte Abbildung z → H −1 (x − x0 ) = H −1 (b + Bz − x0 ) = H −1 Bz + H −1 (b − x0 )

324

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

ist ebenfalls affin und bildet die Einheitskugel auf sich ab. Nach Proposition 18.28 ist daher Q0 = H −1 B unit¨ar und H −1 (b − x0 ) = 0. Die zweite Gleichung liefert x0 = b, also ist der Mittelpunkt eindeutig, und die erste liefert HQ0 = B. Da Q0 reell ist, ist Q∗0 = QT0 , also BB T = HQ0 QT0 H T = HH T . Da D := H T H eine Diagonalmatrix ist, ist BB T H:k = HH T Hek = HDek = H(Dkk ek ) = Dkk Hek = Dkk H:k , also sind die Spalten von H Eigenvektoren von BB T zu den Eigenwerten Dkk . Nach Proposition 18.15 sind BB T = HH T und H T H = D ¨ahnlich, also hat BB T dasselbe charakteristische Polynom wieX D, also diese Eigenwerte mit derselben Vielfachheit wie D. Und wegen T Dkk = (H H)kk = Hlk Hlk = kH:k k22 sind die L¨angen der Hauptachsen als Wurzeln der l

Eigenwerte von BB T bis auf die Reihenfolge eindeutig bestimmt.

⊓ ⊔

1.5

1

0.5

0

−0.5 −1.5

−1

−0.5

0

0.5

Die Hauptachsen sind nicht eindeutig bestimmt. Sie sind aber eindeutig bis auf Vorzeichen und Reihenfolge, wenn ihre L¨angen alle verschieden sind. Dann gibt es n¨amlich zu jedem Eigenwert bis aufs Vorzeichen nur einen Eigenvektor der richtigen L¨ange. Signatur. L¨aßt man in einer Zerlegung der Form A = QΛQ∗ die Bedingung fallen, daß Q unit¨ar sein soll, so sind A und Λ normalerweise nicht mehr ¨ahnlich. Trotzdem gibt es noch wichtige Beziehungen. 18.41 Satz (Tr¨ agheitssatz von Sylvester) (i) Hat eine hermitesche Matrix A eine Zerlegung A = LDL∗ mit einer Diagonalmatrix D und einer regul¨aren Matrix L, so sind alle Diagonalelemente von D reell. (ii) Ist A = M EM ∗ eine weitere Zerlegung mit einer Diagonalmatrix E und einer regul¨aren Matrix M , so ist die Zahl der positiven Diagonalelemente von D und E gleich. Diese von der speziellen Zerlegung unabh¨angige Zahl nennt man die Signatur (oder den Tr¨ agheitsindex) von A.

325 (iii) Sind A, B ∈ Kn×n hermitesche Matrizen, so gibt es genau dann eine regul¨are Matrix S ∈ Kn×n mit B = SAS ∗ , wenn A und B gleichen Rang und gleiche Signatur haben. Beweis. (i) Die Matrix D = L−1 AL−∗ ist wegen D∗ = (L−1 AL−∗ )∗ = (L−∗ )∗ A∗ L−∗ = L−1 AL−∗ = D hermitesch, hat also reelle Diagonalelemente. (ii) Sei A ∈ Kn×n und x ∈ Cn sei eine L¨osung des homogenen Systems der Gleichungen (L∗ x)k = 0 f¨ ur alle k mit Dkk > 0, ∗ (M x)k = 0 f¨ ur alle k mit Ekk ≤ 0.

(32)

Wegen (32) gilt dann x∗ Ax = x∗ LDL∗ x = (L∗ x)∗ D(L∗ x) = X = Dkk |(L∗ x)k |2 ≤ 0,

X

Dkk |(L∗ x)k |2

Dkk ≤0

und

x∗ Ax = x∗ M EM ∗ x = (M ∗ x)∗ E(M ∗ x) = X = Ekk |(M ∗ x)k |2 ≥ 0.

X

Ekk |(M ∗ x)k |2

Ekk >0



Also ist x Ax = 0 und in der letzten Ungleichung m¨ ussen alle (M ∗ x)k mit Ekk > 0 verschwinden. Zusammen mit (32) folgt (M ∗ x)k = 0 f¨ ur alle k, also M ∗ x = 0. Da M regul¨ar ∗ ist, gilt dasselbe f¨ ur M , und es folgt x = 0. Wir wissen also, daß das homogene Gleichungssystem (32) nur die triviale L¨osung besitzt. Das Gleichungssystem muß daher mindestens n Gleichungen enthalten. Bezeichnen nun s und t die Zahl der positiven Diagonalelemente von D und E, so folgt s + (n − t) ≥ n, also s ≥ t. Dasselbe Argument mit vertauschten Rollen liefert aber t ≥ s. Also ist s = t. (iii) Da S regul¨ar ist, folgt aus B = SAS ∗ , daß A und B denselben Rang haben. Aus einer Zerlegung A = LDL∗ mit einer Diagonalmatrix D und einer regul¨aren Matrix L bekommt man eine ebensolche Zerlegung von B, n¨amlich B = SAS ∗ = SLDL∗ S ∗ = (SL)D(SL)∗ . Daher haben A und B auch dieselbe Signatur.

Haben umgekehrt A und B denselben Rang r und dieselbe Signatur s, so betrachten wir die unit¨aren Spektralzerlegungen A = QΛQ∗ und B = P ΘP ∗ . Die Zahlen ( p Θkk /Λkk falls Λkk 6= 0, σk = 1 sonst sind reell und positiv, da die Diagonalelemente von Λ und Θ nach absteigender Gr¨oße geordnet sind und nach Annahme gleichviele positive und (wegen dem gleichen Rang) gleichviele negative Elemente enthalten. Bilden wir nun die Diagonalmatrix Σ mit den Diagonalelementen Σkk = σk , so finden wir ΣΛΣ∗ = Θ. F¨ ur die Matrix S = P ΣQ∗ gilt daher SAS ∗ = (P ΣQ∗ )(QΛQ∗ )(P ΣQ∗ )∗ = P ΣΛQ∗ QΣ∗ P ∗ = P ΣΛΣ∗ P ∗ = P ΘP ∗ = B.

326

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE ⊓ ⊔

18.42 Satz Eine hermitesche Matrix A ∈ Kn×n hat genau dann eine Zerlegung A = LDL∗ mit einer regul¨aren Diagonalmatrix D und einer normierten unteren Dreiecksmatrix L ∈ Kn×n , wenn die f¨ uhrenden m-dimensionalen Untermatrizen   A11 . . . A1m  . ..  A1:m,1:m :=  .. .  , (m = 1, . . . , n) Am1 . . . Amm

alle regul¨ar sind.

Beweis. In Komponenten ausgeschrieben lautet eine Zerlegung A = LDL∗ der beschriebenen Form min(j,k) X Ajk = Ljl Dll Lkl f¨ ur j, k = 1, . . . , n. (33) l=1

Man sieht daraus, daß die Komponenten der f¨ uhrenden m-dimensionalen Untermatrizen A1:m,1:m nur von den entsprechenden Untermatrizen von L und D abh¨angen. Insbesondere ist A1:m,1:m = L1:m,1:m D1:m,1:m L∗1:m,1:m . (34) Da die Determinante einer normierten Dreiecksmatrix den Wert 1 hat, folgt det A1:m,1:m = det(L1:m,1:m D1:m,1:m L∗1:m,1:m ) = det L1:m,1:m det D1:m,1:m det L∗1:m,1:m m Y = det D1:m,1:m = Dll .

(35)

l=1

Ist D regul¨ar, so hat D keine Nullspalte, also sind alle Diagonalelemente von Null verschieden, und daher alle det A1:m,1:m 6= 0, d.h. die A1:m,1:m sind regul¨ar. Sind umgekehrt alle A1:m,1:m regul¨ar, so zeigen wir die Existenz einer Zerlegung A = LDL∗ der beschriebenen Form induktiv. F¨ ur n = 1 ist alles klar (A = 1A1∗ ). Nehmen wir die Behauptung f¨ ur n − 1 statt n als richtig an, so finden wir eine Zerlegung (34) f¨ ur m = n − 1, und wir brauchen sie nur auf m = n zu erweitern. Dazu setzen wir a = A1:m,n , −1 d = D1:m,1:m L−1 1:m,1:m a,

und erhalten die gew¨ unschte Zerlegung aus ! A1:m,1:m a A = a∗ α

α = Ann , δ = α − d∗ D1:m,1:m d

! L1:m,1:m D1:m,1:m L∗1:m,1:m L1:m,1:m D1:m,1:m d = ∗ d∗ D1:m,1:m L∗ δ + d∗ D1:m,1:m d ! ! 1:m,1:m ! L1:m,1:m 0 D1:m,1:m 0 L∗1:m,1:m d = 0 1 d∗ 1 0 δ = LDL∗

327 mit der normierten unteren Dreiecksmatrix L = ! D1:m,1:m 0 D= . 0 δ

L1:m,1:m 0 d∗ 1

!

und der Diagonalmatrix ⊓ ⊔

18.43 Satz F¨ ur eine hermitesche Matrix A ∈ Kn×n sind die folgenden Aussagen gleichwertig: (i) Es gibt eine untere Dreiecksmatrix L ∈ Kn×n mit positiven Diagonalelementen, so daß A = LL∗ . (ii) A ist positiv definit. (iii) Alle f¨ uhrenden Untermatrizen A1:m,1:m (m = 1, . . . , n) sind positiv definit. (iv) Alle f¨ uhrenden Unterdeterminanten det A1:m,1:m (m = 1, . . . , n) sind positiv. Gelten (i)-(iv), so ist die Zerlegung in (i) eindeutig bestimmt; sie heißt die CholeskyZerlegung von A. Beweis. (i) ⇒ (ii): Es ist x∗ Ax = x∗ LL∗ x = kL∗ xk22 ≥ 0, und Gleichheit gilt nur f¨ ur ∗ L x = 0; da L wegen der positiven Diagonalelemente regul¨ar ist, also nur f¨ ur x = 0. (ii) ⇒ (iii): F¨ ullt man einen Vektor x1:m 6= 0 mit Nullen zu einem Vektor x ∈ Kn auf, so ∗ ist x1:m A1:m,1:m x1:m = x∗ Ax > 0. √ (iv) ⇒ (i): F¨ ur n = 1 ist 0 < det A = A11 , also geht L = ( A11 ). Nehmen wir an, die Aussage gilt schon f¨ ur n − 1 statt n, so finden wir eine Zerlegung A1:m,1:m = L1:m,1:m L∗1:m,1:m f¨ ur m = n − 1, und wir brauchen sie nur auf m = n zu erweitern. Wie im letzten Beweis setzen wir a = A1:m,n , α = Ann , d = L−1 δ = α − d∗ d 1:m,1:m a, und finden

L1:m,1:m L∗1:m,1:m d∗ L∗ ! 1:m,1:m 0 L∗1:m,1:m

!

L1:m,1:m d δ + d∗ d ! ! (36) d L1:m,1:m 0 I . = 0 1 d∗ 1 0 δ √ Wegen 0 < det A = (det L∗ )δ det L = δ| det L|2 ist δ > 0, und mit λ = δ > 0 findet man, daß ! ! L1:m,1:m 0 L∗1:m,1:m d A= d∗ λ 0 λ A =

A1:m,1:m a a∗ α

!

=

die eindeutige Cholesky-Zerlegung von A ist. (iii) ⇒ (iv): F¨ ur n = 1 ist mit x = (1) sicher det A = A11 = x∗ Ax > 0. Nehmen wir an, die Aussage gilt schon f¨ ur n − 1 statt n, so k¨onnen wir wieder (36) bilden. Da A positiv definit ist, sind nach dem Satz von Sylvester die Diagonalelemente der mittleren Matrix positiv; insbesondere ist δ > 0 und daher det A = δ| det L|2 > 0. Die echten Unterdeterminanten det A1:m,1:m sind nach Induktionsannahme ebenfalls positiv. ⊓ ⊔

328

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Der bisher unbewiesen gebliebene Satz 18.34 folgt nun im positiv definiten Fall, und der semidefinite Fall folgt wegen der Stetigkeit der Determinanten durch Grenz¨ ubergang ε → 0, da (Eigenwertkriterium!) A genau dann positiv semidefinit ist, wenn A + εI f¨ ur alle ε > 0 positiv definit ist. Matrixfunktionen. Insbesondere f¨ ur die Anwendungen auf Differentialgleichungen ist es interessant, Funktionen f¨ ur Matrixargumente zu definieren. 18.44 Proposition Ist f : Ω ⊆ K → K durch eine Potenzreihe f (x) =

∞ X

ak x k

k=0

mit Konvergenzradius r darstellbar, so konvergiert die Reihe f (A) =

∞ X

ak Ak

k=0

f¨ ur beliebige Matrizen A ∈ Kn×n mit kAk < r absolut. Außerdem gilt f¨ ur A ∈ Kn×n und |t| < r/kAk die Kettenregel d f (tA) = Af ′ (tA) = f ′ (tA)A. dt

(37)

Beweis. Aus Satz 14.17 folgt die absolute Konvergenz, X und die gleichm¨aßige Konvergenz in K[0; ρ] f¨ ur ρ < r. Nach Satz 14.19 darf man f (tA) = ak Ak tk gliedweise ableiten und erh¨alt X X d f (tA) = kak Ak tk−1 = A kak Ak−1 tk−1 = Af ′ (tA). dt Man kann den Faktor A aber ebenso nach hinten herausziehen und erh¨alt dann dtd f (tA) = f ′ (tA)A. ⊓ ⊔ Wichtig: Rechenregeln f¨ ur Funktionsumformungen u ¨bertragen sich auf Matrizen nur, wenn die beteiligten Matrizen vertauschbar sind. Also ist etwa eA+B = eA eB richtig, falls AB = BA, im allgemeinen jedoch falsch. 18.45 Folgerung F¨ ur A ∈ Kn×n hat die Differentialgleichung x˙ = Ax mit der Anfangsbedingung x(0) = x0 ∈ Kn die eindeutige L¨osung x(t) = etA x0 . Beweis. x(t) = etA x0 ist wegen x(t) ˙ = gilt f¨ ur jede L¨osung

d tA e x0 dt

= AetA x0 = Ax(t). eine L¨osung. Umgekehrt

d −tA (e x(t)) = e−tA (−A)x(t) + e−tA x(t) ˙ = e−tA (x(t) ˙ − Ax(t)) = 0; dt also ist e−tA x(t) konstant, also = x0 (t = 0 einsetzen!) und daher x(t) = etA x0 .

⊓ ⊔

Die Berechnung von Matrixfunktionen ist f¨ ur diagonalisierbare Matrizen leicht mit Hilfe der Spektralzerlegung, denn es gilt:

329 18.46 Satz (i) Ist D ∈ Kn×n eine Diagonalmatrix, so ist  f (D11 ) . . .  .. ... f (D) =  . 0



0 .. .

. . . f (Dnn )

Insbesondere ist stets f (tI) = f (t)I.

 .

(ii) F¨ ur A, S ∈ Kn×n , S regul¨ar ist f (SAS −1 ) = Sf (A)S −1 . Beweis. Beides ergibt sich sofort durch Einsetzen in die Definition. 2 1 3 4

⊓ ⊔

!

18.47 Beispiele. (i) F¨ ur die Matrix A = aus Beispiel 18.23(i) ist A = SΛS −1 ! ! 1 1 1 0 mit S = und Λ = . Also ist −1 3 0 5 ! ! !−1 t 1 1 e 0 1 1 etA = SetΛ S −1 = −1 3 0 e5t −1 3 ! ! et e5t 1 3 −1 = t 5t 4 1 −e 3e 1 ! 3et + e5t −et + e5t 1 . = 4 −3et + 3e5t et + 3e5t (ii) F¨ ur die nichtdiagonalisierbare Matrix A =

4 1 0 4

!

aus Beispiel 18.23(ii) ist A = !

0 1 . Wegen R2 = 0 verschwinden 0 0 alle h¨oheren Potenzen von R. Einsetzen in die Potenzreihe der Exponentialfunktion ergibt also etR = I + tR. Da die Einheitsmatrix mit jeder Matrix vertauschbar ist, folgt ! t t e te etA = etI+tR = etI etR = et (I + tR) = . 0 et 4I + R mit der strikten oberen Dreiecksmatrix R =

Das Beispiel l¨aßt sich verallgemeinern. 18.48 Satz (i) Ist R ∈ Kn×n eine strikte obere Dreiecksmatrix, so ist f (λI + R) =

n X f (k) (λ) k=0

k!

Rk .

(38)

330

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

(ii) F¨ ur sogen. blockdiagonale Matrizen der Form 

A1 . . .  .. . . A= . . 0

 0 ..  . 

. . . As

mit kleineren quadratischen Untermatrizen Ak gilt 

f (A1 ) . . .  .. ... f (A) =  . 0

0 .. .

. . . f (As )



 .

Beweis. (i) Man zeigt n¨amlich induktiv, daß die ersten k Spalten von Rk verschwinden. Also ist Rn = 0 und die Aussage folgt durch Taylorentwicklung. ⊓ ⊔

(ii) Wieder durch Einsetzen.

Damit man das auf beliebige defektive Matrizen anwenden kann, gen¨ ugen die bisherigen Faktorisierungen noch nicht. Es geht aber immer mit dem folgenden Satz. 18.49 Satz Jede komplexe quadratische Matrix mit genau s verschiedenen Eigenwerten λ1 , . . . , λs ist zu einer Blockdiagonalmatrix der Form 

λ1 I + R1 . . .  .. ... R= . 0

0 .. .

. . . λ s I + Rs

  

(39)

mit strikten oberen Dreiecksmatrizen Rk ¨ahnlich. Beweis. Wir berechnen zuerst die Schur-Zerlegung A = QR0 Q∗ , wobei wir dem Beweis von Satz 18.24 gem¨aß als Diagonalelemente von R0 die Eigenwerte von A in einer beliebigen Reihenfolge angeben d¨ urfen. Wir w¨ahlen die Reihenfolge so, daß jeweils gleiche Eigenwerte nebeneinanderstehen. Wir zeigen nun induktiv, daß sich jedes solche R0 durch weitere ¨ Ahnlichkeitstransformationen auf die gesuchte Form bringen l¨aßt. F¨ ur n = 1 ist das klar; wir nehmen also an, die Aussage sei richtig f¨ ur ein n, und es sei R0 = SRS −1 mit R wie in (39). Eine (n + 1)-reihige quadratische obere Dreiecksmatrix hat dann die Form ! R0 r R1 = 0 λ mit r ∈ Cn und λ ∈ C. Wir setzen S1 :=

S Su 0 1

!

331 mit einem noch zu bestimmenden Vektor u. Wegen S −1 −u 0 1

S1−1 :=

!

(Probe machen!) ist dann S1−1 R1 S1 = =

S −1 −u 0 1

!

SRS −1 r 0 λ ! R Ru − λu + S −1 r 0 λ

!

S Su 0 1

!

.

(40)

Teilen wir u entsprechend den Bl¨ocken von R in Teilvektoren uk auf, so finden wir  ((λ1 − λ)I + R1 )u1   .. Ru − λu =  . . 

((λs − λ)I + Rs )us

Da nach Wahl der Anordnung der Eigenwerte λk − λ 6= 0 f¨ ur alle k < s gilt, l¨aßt sich u so w¨ahlen, daß Ru − λu + S −1 r f¨ ur λ 6= λs (d.h. wenn ein neuer Block beginnt) ganz verschwindet, und f¨ ur λ = λ s u ¨berall außer im letzten Block. Damit hat man in (40) wieder die gew¨ unschte Form hergestellt. ⊓ ⊔ Die Rk k¨onnen sogar so gew¨ahlt werden, daß die einzigen Nichtnullen in Rk Einsen auf gewissen Pl¨atzen der oberen Nebendiagonalen sind. (39) heißt dann die Jordan’sche Normalform von A. Allerdings ist diese spezielle Wahl in der Praxis wegen extremer Empfindlichkeit gegen¨ uber Rundungsfehlern nicht zu empfehlen; wir verzichten daher auch auf den Beweis. Wir erw¨ahnen noch eine interessante Folgerung. Die Potenzen A0 = I, A, A2 , . . . k¨onnen nicht alle linear unabh¨angig sein, da der Raum aller n × n-Matrizen endlichdimensional ist (Dimension n2 ). Daher gibt es eine kleinste Zahl d, so daß Ad von A0 , . . . , Ad−1 linear abh¨angig ist, d−1 X Ad = ak Ak . k=0

Das Polynom

d

p(x) = x −

d−1 X

ak x k

k=0

ist dann das normierte Polynom p kleinsten Grades, f¨ ur das p(A) = 0 ist (warum?). p heißt daher das Minimalpolynom von A. 18.50 Satz (Cayley-Hamilton) Ist f (x) das charakteristische Polynom von A ∈ Kn×n , so ist f (A) = 0.

332

KAPITEL 18. MATRIXZERLEGUNGEN UND SPEKTRALTHEORIE

Y Beweis. Es ist n¨amlich f (x) = (λk − x)mk , wo mk die Vielfachheit des Eigenwerts λk ist. Ein Vergleich mit der zu A ¨ahnlichen oberen Dreiecksmatrix (39) zeigt, daß Rk gerade mk Zeilen haben muß. Einsetzen in (38) ergibt f (λk I + Rk ) = 0 und daher f (R) = 0. Da A zu R a¨hnlich ist, A = SRS −1 , folgt f (A) = Sf (R)S −1 = 0. ⊓ ⊔ Es folgt, daß der Grad d des Minimalpolynoms h¨ochstens n ist. Der Grad kann durchaus kleiner sein. F¨ ur die Nullmatrix jeder Dimension hat z.B. das Minimalpolynom p(x) = x nur den Grad d = 1. Und f¨ ur diagonalisierbare Matrizen ist das Minimalpolynom gerade das Produkt der x − λk u ¨ber die verschiedenen Eigenwerte λk von A (warum?); das Minimalpolynom einer diagonalisierbaren Matrix mit einem mehrfachen Eigenwert hat also den Grad < n. Die Singul¨are-Werte-Zerlegung ist ein f¨ ur viele Probleme der Datenanalyse grundlegendes Werkzeug; exemplarisch daf¨ ur schauen wir uns eine Anwendung in der Bildverarbeitung (Datenkompression) an. [ ] Im rest des Kapitels ist V stets ein Banachraum u ur die Anwendungen auf ¨ber K = C. F¨ Matrizen ist V = Cn ein Standardvektorraum; in den Anwendungen auf die Quantenphysik ist V ein Funktionenraum (der Hilbertraum der Wellenfunktionen).

Kapitel 19 Kurvenintegrale In diesem Kapitel untersuchen wir Kurvenintegrale, zeigen, wie sich Integrale als Grenzwerte von Summen darstellen lassen und definieren die L¨ange von Wegen. Außerdem untersuchen wir, unter welchen Bedingungen Kurvenintegrale nur vom Anfangs- und Endpunkt abh¨angig sind. Wir formulieren Kurvenintegrale außerdem als Integrale u ¨ber 1-Formen. In der Physik treten Kurvenintegrale u.a. bei der Berechnung von Potentialen zu konservativen Vektorfeldern auf; die Formulierung mit 1-Formen (Differentialen) spielt in der Thermodynamik eine große Rolle. 19.1 Definition Man sagt, zwei Wege x : [α, ω] → V und y : [β, η] → V beschreiben dieselbe Kurve, falls es eine stetig differenzierbare, streng monoton wachsende und bijektive Abbildung ϕ : [β, η] → [α, ω] gibt mit x(ϕ(s)) = y(s)

f¨ ur s ∈ [β, η].

(1)

Die Wege x, y nennt man Parameterdarstellungen der Kurve. 19.2 Bemerkung. Eine Kurve ist anschaulich gesprochen das Bild eines Weges, mit der Durchlaufrichtung versehen; abstrakt gesprochen ist eine Kurve die ¨aquivalenzklasse aller Wege, die durch streng monotone C 1 –Substitutionen auseinander hervorgehen. Wir bezeichnen Kurven vorzugsweise mit dem Buchstaben C. F¨ ur die Physik sind vor allem Kurven im Rn (n = 2, 3, 4) und in C von Interesse. 19.3 Satz C sei eine durch den C 1 –Weg x : [α, ω] → Ω ⊆ Kn beschriebene Kurve. (i) F¨ ur jedes stetige Vektorfeld f : Ω → Kn ist das vektorielle Kurvenintegral Z Z ω f (x) · dx := f (x(t)) · x(t)dt ˙ C

(2)

α

unabh¨angig von der Wahl des C beschreibenden Wegs. (ii) F¨ ur jedes stetige Skalarfeld f : Ω → K ist das skalare Kurvenintegral Z Z ω f (x) kdxk := f (x(t)) kx(t)k ˙ dt C

α

333

(3)

334

KAPITEL 19. KURVENINTEGRALE unabh¨angig von der Wahl des C beschreibenden Weges. (Statt kdxk2 schreibt man meistens ds und nennt ds das Linienelement).

Beweis. Beschreibt der C 1 -Weg y : [β, η] → Kn dieselbe Kurve wie x : [α, ω] → Kn , so gilt ′ y(s) ˙ = x(ϕ(s))ϕ ˙ (s) wegen (1) und der Kettenregel. Die Substitution t = ϕ(s), dt = ϕ′ (s) ds ergibt nun Z η Z ω ′ f (x(ϕ(s)) · x(ϕ(s))ϕ ˙ (s) ds f (x(t)) · x(t) ˙ dt = β α Z η f (y(s)) · y(s) ˙ ds; = β

der Ausdruck (2) bleibt bei der Substitution also unge¨andert. Da ϕ streng monoton wachsend ist, ist der Skalar ϕ′ (s) ≥ 0, also ′ ′ kx(t)k ˙ dt = kx(ϕ(s))kϕ ˙ (s) ds = kx(ϕ(s))ϕ ˙ (s)k ds = ky(s)k ˙ ds;

⊓ ⊔

daher bleibt auch (3) unge¨andert. ⊓ ⊔

19.4 Satz C sei eine durch den C 1 -Weg x : [α, ω] → Ω ⊆ Kn beschriebene Kurve. (i) F¨ ur jedes stetige Vektorfeld f : Ω → Kn und jedes ǫ > 0 gibt es ein δ > 0 derart, daß f¨ ur beliebige Zerlegungen α = t0 ≤ t1 ≤ · · · ≤ tm = ω

(4)

mit den Schrittweiten 0 ≤ tk − tk−1 ≤ δ

(k = 1,

··· , m)

und f¨ ur beliebige τ ∈ [tk−1 , tk ] die Absch¨atzung Z m X f (x(τk )) · (x(tk ) − x(tk−1 )) ≤ ǫ f (x) · dx − C

(5)

(6)

k=1

gilt.

(ii) F¨ ur jedes stetige Skalarfeld f : Ω → Kn und jedes ǫ > 0 gibt es ein δ > 0 derart, daß f¨ ur beliebige Zerlegungen (4) mit den Schrittweiten (5) und f¨ ur beliebige τ ∈ [tk−1 , tk ] die Absch¨atzung Z m X f (x(τk ))kx(tk ) − x(tk−1 )k ≤ ǫ (7) f (x)kdxk − C k=1

gilt.

335 Die in (6) und (7) auftretenden Summen heißen Riemannsche Summen zur Zerlegung (5). Die Approximationsaussagen sind konsistent mit der physikalischen Intuition von dx als infinitesimalen Zuwachs x(tk ) − x(tk−1 ) f¨ ur tk − tk−1 → 0. Beweis. (i) Wir zerlegen das Integral auf der rechten Seite von (2) in die Teilintegrale u ¨ber die einzelnen Intervalle der Zerlegung, Z

C

f (x) · dx =

m Z X

tk

tk−1

k=1

f (x(t)) · x(t) ˙ dt.

Setzen wir dies in (6) ein und benutzen die Relation x(tk ) − x(tk−1 ) =

Z

tk

x(t) ˙ dt,

tk−1

so erhalten wir f¨ ur die linke Seite von (6) m Z Z tk m X tk X f (x(t)) · x(t) ˙ dt − x(t) ˙ dt f (x(τk )) · tk−1 tk−1 k=1 k=1 m Z tk  X  = f (x(t)) − f (x(τk )) · x(t) ˙ dt k=1 tk−1 m Z tk   X ≤ f (x(t)) − f (x(τk )) · x(t) ˙ dt tk−1 k=1 Z m  tk  X ≤ ˙ dt (f (x(t)) − f (x(τk )) · x(t) ≤

k=1 tk−1 m Z tk X k=1

tk−1

kf (x(t)) − f (x(τk ))k2 kx(t)k ˙ 2 dt

(8)

nach der Cauchy-Schwarz’schen Ungleichung. Da die stetige Funktion f in dem kompakten Intervall [α, ω] gleichm¨aßig stetig ist, gibt es zu jedem ǫ0 > 0 ein δ > 0 mit kf (x(t)) − f (x(s))k2 ≤ ǫ0 f¨ ur alle s, t ∈ [α, ω] mit |t − s| ≤ δ. Wegen (6) und τk ∈ [tk−1 , tk ] ist f¨ ur dieses δ sicher kf (x(t)) − f (x(τk ))k ≤ ǫ0 , und die rechte Seite von (8) l¨aßt sich weiter absch¨atzen durch ≤

m Z X k=1

tk

tk−1

ǫ0 kx(t)k ˙ 2 dt =

Also folgt (6) mit der Wahl ǫ0 := ǫ

Z

ω

ǫ0 kx(t)k ˙ 2 dt = ǫ0

α

.Z

ω

α

kx(t)k ˙ 2 dt.

Z

ω

α

kx(t)k ˙ 2 dt.

336

KAPITEL 19. KURVENINTEGRALE

(ii) Analog wie in (i) kann man erreichen, daß Z Z tk m ω ǫ X f (x(t))kx(t)k ˙ dt − f (x(τk )) kx(t)k ˙ dt ≤ . α 2 tk−1 k=1

Wenn wir nun auch m Z tk m X ǫ X f (x(τk )) kx(t)k ˙ dt − f (x(τk ))kx(tk ) − x(tk−1 )k ≤ 2 tk−1 k=1 k=1

(9)

zeigen k¨onnen, folgt (7).

Nun ist nach dem Mittelwertsatz der Integralrechnung Z tk ′ ′ kx(t)kdt ˙ = (tk − tk−1 )kx(τ ˙ k )k f¨ ur ein τk ∈ [tk−1 , tk ], tk−1

und nach dem Mittelwertsatz der Differentialrechnung ist ′′

kx(tk ) − x(tk−1 )k = (tk − tk−1 )kx(τ ˙ k )k

′′

f¨ ur ein τk ∈ [tk−1 , tk ],

Also l¨aßt sich die linke Seite von (9) vereinfachen zu m m X X ′ ′′ f (x(tk ))(tk − tk−1 )kx(τ ˙ k )k − f (x(tk ))(tk − tk−1 )kx(τ ˙ k )k k=1 k=1 m X ′ ′′ f (x(tk ))(tk − tk−1 )(kx(τ ˙ k )k − kx(τ ˙ k )k) = k=1 m X ′ ′′ ˙ k )k − kx(τ ˙ k )k ≤ |f (x(tk ))| (tk − tk−1 ) kx(τ k=1



m X k=1



′′

kf k[α,ω] (tk − tk−1 )kx(τ ˙ k ) − x(τ ˙ k )k

Da die stetige Funktion x˙ im kompakten Intervall [α, ω] gleichm¨aßig stetig ist, erreicht man f¨ ur vorgegebenes ǫ1 > 0 durch eventuelles Verkleinern des δ aus (i), daß ′

′′

kx(τ ˙ k ) − x(τ ˙ k )k ≤ ǫ1

f¨ ur k = 1, . . . , m.

Damit l¨aßt sich die Summe weiter absch¨atzen zu m X k=1

kf k[α,ω] (tk − tk−1 )ǫ1 = ǫ1 kf k[α,ω]

und wenn wir

m X k=1

(tk − tk−1 ) = ǫ1 kf k[α,ω] (ω − α) ,

ǫ ǫ1 := /kf k[α,ω] (ω − α) 2 w¨ahlen, folgt (9). Daher gilt auch (7). ⊓ ⊔

337 ⊓ ⊔

19.5 Beispiel. Als Spezialfall betrachten wir den eindimensionalen Weg x : [α, ω] → R mit x(t) = t. Die Kurve C ist also einfach das reelle Intervall [α, ω], in positiver Richtung durchlaufen, und das Kurvenintegral (2) reduziert sich dann auf das gew¨ohnliche Integral Z Z ω f (t)dt . f (x)dx = [α,ω]

α

W¨ahlen wir in der Riemannschen Summe τk = (tk + tk−1 )/2, so erh¨alt man aus Satz 19.4 die sogenannte Rechteckregel zur gen¨aherten Integration:   Z ω m X tk + tk−1 f (t)dt ≈ f (tk − tk−1 ) . (10) 2 α k=1

 tk + tk−1 (tk − tk−1 ) l¨aßt sich als Fl¨acheninhalt eines Rechtecks deuten, Das Produkt f 2 das je zur H¨alfte u ¨ber und unterhalb dem Graphen von f verl¨auft. Die Summe in (10) approximiert also die Fl¨ache zwischen dem Graphen in f und der x-Achse, wobei Fl¨achenst¨ ucke, die unterhalb der x-Achse liegen, als negativ gerechnet werden. Man kann zeigen, daß der Fehler in (7) f¨ ur |tk − tk−1 | ≤ δ und 2-mal stetig differenzierbare Funktion f die Gr¨oßen2 ordnung O(δ ) hat. Im Grenzwert δ → 0 erh¨alt man die genaue Gr¨oße dieser Fl¨ache. 

338

KAPITEL 19. KURVENINTEGRALE

19.6 Beispiel. Als weiteren Spezialfall betrachten wir die konstante skalare Funktion f (x) = 1. Die Formel (7) vereinfacht sich dann f¨ ur die 2-Norm zu Z m X kx(tk ) − x(tk−1 )k ≤ ǫ . (11) kdxk2 − C k=1

tm−1

tm = ω α = t0 t3

t1 t2

Die Summe in (10) l¨aßt sich als Gesamtl¨ange eines Streckenzugs deuten, der die Kurve C approximiert. Da nach Satz 19.4 der Fehler ǫ in (11) f¨ ur gen¨ ugend kleine Schrittweiten δ beliebig klein wird, bezeichnet man das Integral Z Z ω |C| := kdxk2 = kx(t)k ˙ (12) 2 dt C

α

als die Bogenl¨ ange der Kurve C. 19.7 Beispiel. Geschlossene ”eif¨ormige” Kurven im R2 lassen sich in Polarkoordinaten durch die Gleichung r = r(ϕ) (0 ≤ ϕ ≤ 2π) darstellen, mit r(2π) = r(0). Eine zugeh¨origer Weg ist dann durch ! x(ϕ) :=

r(ϕ) cos ϕ r(ϕ) sin ϕ

(13)

x2

r(φ) φ x1

339 gegeben. Die Ableitung ist r(ϕ) ˙ cos ϕ − r(ϕ) sin ϕ r(ϕ) ˙ sin ϕ + r(ϕ) cos ϕ

x(ϕ) ˙ =

!

mit 2 kx(ϕ)k ˙ 2

= = =

(r(ϕ) ˙ cos ϕ − r(ϕ) sin ϕ)2 + (r(ϕ) ˙ sin ϕ + r(ϕ) cos ϕ)2 r(ϕ) ˙ 2 (cos2 ϕ + sin2 ϕ) + 2r(ϕ)r(ϕ)(− ˙ cos ϕ sin ϕ + sin ϕ cos ϕ) 2 + r(ϕ)2 (sin ϕ + cos2 ϕ) r(ϕ) ˙ 2 + r(ϕ)2 .

Die L¨ange des zum Winkelbereich [0, ϕ] geh¨origen Bogens ist also Z ϕp Z ϕ kx(t)k ˙ r(ϕ) ˙ 2 + r(ϕ)2 dϕ . 2 dt =

(14)

0

0

F¨ ur den Kreis mit dem Radius r ist r(ϕ) konstant, also hat ein Kreisbogen die L¨ange Z ϕ rdϕ = rϕ|ϕ0 = rϕ . (15) 0

Im Einheitskreis (r = 1) ist die L¨ange eines Bogens zum Winkel ϕ also gerade ϕ, d.h. der Winkel wurde im Bogenmaß gemessen. F¨ ur einen beliebigen Kreis ist der Umfang die L¨ange des Bogens zum Winkel 2π, nach (15) hat ein Kreis vom Radius r also den Umfang 2πr. Wir beweisen nun die wichtigsten Rechenregeln f¨ ur Kurvenintegrale. 19.8 Proposition F¨ ur Vektorfelder f, g gilt Z Z Z (af (x) + bg(x)) · dx = a f (x) · dx + b g(x) · dx , C

C

Z Z f (x) · dx ≤ kf (x)k2 kdxk2 . C

C

Beweis.

(i) Nach Definition ist f¨ ur einen C beschreibenden C 1 -Weg x : [α, ω] → Ω Z Z ω (af (x(t)) + bg(x(t))) · x(t)dt ˙ (af (x) + bg(x)) · dx = C α Z ω Z ω f (x(t)) · x(t)dt ˙ +b g(x(t)) · x(t)dt ˙ = a α α Z Z = a f (x) · dx + b g(x) · dx , C

also gilt (16).

(16)

C

C

(17)

340

KAPITEL 19. KURVENINTEGRALE

(ii) Nach der Cauchy-Schwarz’schen Ungleichung ist |f (x(t))· x(t)|≤ ˙ kf (x(t))k2 kx(t)k ˙ 2 , also Z Z ω f (x) · dx = f (x(t)) · x(t)dt ˙ C α Z ω |f (x(t)) · x(t)|dt ˙ ≤ α Z ω kf (x(t))k2 kx(t)k ˙ ≤ 2 dt α Z = kf (x)k2 kdxk2 , C

und (17) folgt. ⊓ ⊔ ⊓ ⊔

19.9 Satz D ⊆ V und Ω ⊆ Kn seien offen, f ∈ C 1 (D × Ω, Kn ). Dann ist f¨ ur jede in Ω verlaufende C 1 –Kurve C durch. Z g(s) := f (s, x) · dx (s ∈ D) C

1

eine Funktion g ∈ C (D, K) definiert, und die Ableitung von g ist Z ∂ ′ f (s, x) · dx. g (s) = C ∂s

∂ Beweis. Wir schreiben fs f¨ ur ∂s f . Wegen Z 1 (fs (s + τ h, x) − fs (s, x))hdτ = [f (s + τ h, x) − τ fs (s, x)h]10 0

= f (s + h, x) − fs (s, x)h − f (s, x)

ist kf (s + h, x) − f (s, x) − fs (s, x)hk ≤

Z

0

1

kfs (s + τ h, x) − fs (s, x)kkhkdτ.

F¨ ur gen¨ ugend kleine h ist (gleichm¨aßige Konvergenz!) kfs (s + τ h, x) − fs (s, x)k ≤ ǫ f¨ ur alle τ ∈ [0, 1], x ∈ C, also folgt Z 1 kf (s + h, x) − f (s, x) − fs (s, x)hk ≤ ǫkhkdt = ǫkhk 0

f¨ ur gen¨ ugend kleine h. Damit wird f¨ ur gen¨ ugend kleine h auch Z   ′ |g(s + h) − g(s) − g (s)h| = f (s + h, x) − f (s, x) − fs (s, x)h · dx ZC ≤ kf (s + h, x) − f (s, x) − fs (s, x)hk2 kdxk2 C Z ≤ ǫkhk2 kdxk2 = ǫkhk2 |C| = o(khk), C

341 so daß g ′ tats¨achlich die Ableitung von g ist. ⊓ ⊔

⊓ ⊔

19.10 Bemerkung. Alles bisher Gesagte u uckweise C 1 ¨bertr¨agt sich ohne weiteres auf st¨ Kurven, indem man die Wegintegrale additiv aus den Teilintegralen u ¨ber die Teilkurven ¨ zusammensetzt (Ubungsaufgabe). F¨ ur die Anwendungen sehr wichtig ist die Frage, wann Kurvenintegrale u ¨ber verschiedene Kurven mit gleichem Anfangspunkt und gleichem Endpunkt denselben Wert haben. Ist dies stets der Fall, so h¨angt bei festem Anfangspunkt a = x(α) das Integral Z z Z f (x) · dx =: Φ(z) (18) f (x) · dx =: a

C

nur vom Endpunkt z = x(ω) R der Kurve C ab, und definiert damit ein Potential Φ : Ω → K (Beispiel: f (x) = Kraft, C f (x) · dx = Arbeit, Φ(z) = potentielle Energie, falls Arbeit wegunabh¨angig). Das Vektorfeld f heißt in diesem Fall konservativ. R 19.11 Satz f sei ein stetiges Vektorfeld im Gebiet Ω ⊆ Kn . Das Kurvenintegral C f (x)·dx h¨angt genau dann nur vom Anfangs- und Endpunkt der Kurve C in Ω ab, wenn sich f in der Form f (x) = ∇Φ(x) f¨ ur x ∈ Ω (19) schreiben l¨aßt. In diesem Fall ist Z

C

f (x) · dx = Φ(b) − Φ(a)

(20)

f¨ ur jede in Ω verlaufende Kurve C von a nach b. Beweis. (i) Gilt (19), so gilt f¨ ur jeden C 1 -Weg x : [α, ω] → Ω mit x(α) = a, x(β) = b die Beziehung Z Z Z ω f (x) · dx = ∇Φ(x) · dx = ∇Φ(x(t)) · x(t)dt ˙ C α ZCω Z ω   d = Φ′ (x(t))x(t)dt ˙ = Φ(x(t)) dt α α dt ω = Φ(x(t)) = Φ(b) − Φ(a) . α

(ii) Gilt (20) f¨ ur jede in Ω verlaufende Kurve C von a nach b, so k¨onnen wir durch (18) eine Potentialfunktion Φ : Ω → K definieren. Wir zeigen, daß dann (19) gilt. Dazu sei z ∈ Ω. Da Ω ein Gebiet ist, enth¨alt es eine ε-Umgebung von z. Einen C 1 -Weg x : [α, ω] → Ω mit x(α) = a, x(ω) = z k¨onnen wir zu einem st¨ uckweise C 1 -Weg x : [α, ω + 1] → Ω mit x(ω + s) = z + sh f¨ ur s ∈ [0, 1]

342

KAPITEL 19. KURVENINTEGRALE

erg¨anzen. Damit wird Φ(z + h) − Φ(z)

= =

Z

ω+1

Zαω+1

f (x(t))x(t)dt ˙ − f (x(t))x(t)dt ˙ =

ω

Z

ω

f (x(t))x(t)dt ˙

α

Z

0

1

f (z + sh) · hds ,

nach dem Mittelwertsatz der Integralrechnung also Φ(z + h) − Φ(z) = f (z + σh) · h f¨ ur ein σ ∈ [0, 1] . Da f stetig ist, folgt Φ(z + h) = Φ(z) + f (z + σh) · h = Φ(z) + f (z) · h + o(khk) . Daraus folgt (19). ⊓ ⊔ ⊓ ⊔

R 19.12 Satz f sei ein C 1 -Vektorfeld im Gebiet Ω ⊆ Kn . H¨angt das Integral C f (x) · dx nur vom Anfangs- und Endpunkt der Kurve C in Ω ab, so ist die Matrix f ′ (x) f¨ ur alle x ∈ Ω symmetrisch. Umgekehrt folgt aus der Symmetrie von f ′ (x) f¨ ur alle x ∈ Ω die Wegunabh¨angigkeit in Ω, falls das Gebiet Ω einfach zusammenh¨angend ist. Beweis. Aus der Wegunabh¨angigkeit folgt nach Satz 19.11, daß f (x) = ∇Φ(x) ist, also ist f ′ (x) = ∇2 Φ(x) eine Hessematrix, die nach Satz 7.32 symmetrisch ist. Ist umgekehrt f ′ (x) symmetrisch, so folgt die Wegunabh¨angigkeit aus dem folgenden allgemeineren Ergebnis, da nach Definition 13.41 in einem einfach zusammenh¨angenden Gebiet beliebige Wege mit denselben Endpunkten zueinander homotop sind. ⊓ ⊓ ⊔ ⊔

19.13 Satz f sei ein C 1 -Vektorfeld im Gebiet Ω ⊆ Kn . Ist f ′ (x) f¨ ur alle x ∈ Ω symmetrisch, so gilt Z Z C

f (x) · dx =

C0

f (x) · dx

(21)

f¨ ur beliebige in Ω zueinander homotope Kurven C, C0 mit denselben Endpunkten. Beweis. x0 : [α, ω] → Ω und x : [α, ω] → Ω seien C 1 -Wege zu den Kurven C0 und C, mit Anfangs- und Endpunkten a und b, und ϕ : [0, 1] × [α, ω] → Ω mit ϕ(0, t) = x0 (t), ϕ(1, t) = x(t) ϕ(s, α) = a, ϕ(s, ω) = b

f¨ ur t ∈ [α, ω], f¨ ur s ∈ [0, 1]

(22) (23)

343 sei eine die beiden Wege verbindende Homotopie. Wir setzten ϕ als stetig differenzierbar voraus, und betrachten die durch Z ω f (ϕ(s, t)) · ϕt (s, t)dt (24) g(0) := α

definierte Funktion g : [0, 1] → K. Nach (22) und der Definition des Kurvenintegrals ist Z Z g(0) := f (x) · dx , g(1) = f (x) · dx. C0

C

Die Behauptung folgt also, wenn wir zeigen daß g(s) konstant ist. Dazu berechnen wir die Ableitung. Nach Satz 19.9, angewandt auf die eindimensionale Kurve von α nach ω, k¨onnen wir (24) unter dem Integral ableiten, und erhalten Z ω  Z ω    d d d g(s) = f (ϕ(s, t)) · ϕt (s, t) dt = ϕt (s, t)T f (ϕ(s, t)) dt ds ds α ds Zαω   ϕst (s, t)T f (ϕ(s, t)) + ϕt (s, t)T f ′ (ϕ(s, t))ϕs (s, t) dt . = α

Wegen der Symmetrie von f ′ (ϕ(s, t)) l¨aßt sich das weiter umformen zu Z ω  ϕst (s, t)T f (ϕ(s, t)) + ϕs (s, t)T f ′ (ϕ(s, t))ϕt (s, t) dt Zαω  ω  d = ϕs (s, t)T f (ϕ(s, t)) dt = ϕs (s, t)T f (ϕ(s, t)) = 0, dt α α

da man durch Ableiten von (23) die Gleichungen ϕs (s, α) = 0, ϕs (s, ω) = 0 erh¨alt. Also ist g(s) ˙ = 0, d.h. g(s) ist wirklich konstant. ⊓ ⊓ ⊔ ⊔

Ist Ω nicht einfach zusammenh¨angend, so kann man dies meist erzwingen, indem man von Ω gewisse Schnitte entfernt. Zum Beispiel ist die punktierte Ebene Ω = R2 \{0} nicht einfach angend, aber die entlang der negativen x-Achse aufgeschlitzte Ebene Ω =  zusammenh¨ R2 \ a0 |a ≤ 0 ist einfach zusammenh¨angend. Solange die Wege den Schnitt nicht kreuzen, ist f¨ ur symmetrische f ′ (x) die Wegunabh¨angigkeit der Kurvenintegrale gew¨ahrleistet.

Die Matrix f ′ (x) ist genau dann symmetrisch, wenn ∇j fk = ∇k fj

f¨ ur j 6= k

gilt (f¨ ur j = k ist dies automatisch erf¨ ullt). Im Spezialfall Ω ⊆ R3 sind dies genau 3 Bedingungen, die sich auch als rotf = 0 schreiben lassen. Also gilt: Folgerung F¨ ur ein Vektorfeld f in Ω ⊆ R3 gilt f = grad V =⇒ rot f = 0. Ist Ω einfach zusammenh¨angend, so gilt umgekehrt rot f = 0 =⇒ f = grad V

344

KAPITEL 19. KURVENINTEGRALE

f¨ ur ein geeignetes Skalarfeld V . ⊓ ⊔ Wir haben in diesem Kapitel die Kurvenintegrale im Rn mit Standardkoordinaten eingef¨ uhrt. Will man eine koordinatenunabh¨angige Definition, so muß man alles mit 1-Formen interpretieren. Zu einem stetigen Vektorfeld f : Ω → Kn assoziieren wir eine stetige 1-Form ωf : Kn → C(Ω) durch ωf (h) : x → f (x) · h. (25) Mit der kanonischen Basis dxk (k = 1, . . . , n) des Dualraumes, gegeben durch dxk (h) := hk , ist dann ωf (x) die 1-Form mit ωf (x) : h → ωf (h)(x) = f (x) · h = Also ist ωf (x) = und

Z

C

X

X

fk (x)hk =

X

fk (x)dxk (h).

fk (x)dxk = f (x) · dx

f (x) · dx =

Z

C

ωf (x) =:

Z

ωf .

(26)

(27) (28)

C

Die Bezeichnungsweise ist hier leider mehrdeutig. Erst durch die Wahl des Buchstabens h bzw. x im Argument von wf – oder aus dem Kontext – wird klar, ob wf (·) eine Abbildung aus C(Ω) (wie in (25)) oder eine 1-Form mit Werten in C ( wie in (26)) darstellt. Da sich jede 1-Form als Ausdruck (27) schreiben l¨aßt (s. Kapitel 11), kann man (28) als Definition des Integrals u ¨ber eine 1-Form ansehen. Es ist nicht schwer zu zeigen, daß dieses Integral bei einem Basiswechsel unver¨andert bleibt. Die S¨atze 19.11 und 19.12 lassen sich jetzt so ausdr¨ ucken: 19.14 Satz F¨ ur jede stetig differenzierbare 1-Form ω u ¨ ber C(Ω) gilt: (i)

R

ω ist genau dann wegunabh¨angig, wenn ω exakt ist, d.h. ω = dg f¨ ur ein C g ∈ C 1 (Ω). In diesem Fall ist Z dg = g(b) − g(a) C

f¨ ur jede in Ω verlaufende Kurve C von a nach b. R (ii) Ist C ω wegunabh¨angig, so ist ω geschlossen, d.h. dω = 0; umgekehrtR ist in einfach zusammenh¨angenden Gebieten jede geschlossene 1-Form ω exakt, also C ω wegunabh¨angig. (Dies ist der Spezialfall p = 1 des Lemmas von Poincar´e.) Beweis. (i) gilt nach Satz 19.11, da ω = dg mit ω(x) = dg(x) = g ′ (x)dx = ∇g(x) · dx gleichbedeutend ist.

345 (ii) gilt nach Satz 19.12, da f¨ ur ω(x) = f (x) · dx die ¨außere Ableitung dω wegen dω(x){j,k} = ∇j fk (x) − ∇k fj (x) = f ′ (x)kj − f ′ (x)jk

(f¨ ur j < k)

genau dann verschwindet, wenn f ′ (x) symmetrisch ist. ⊓ ⊔ ⊓ ⊔ Sp¨ater werden wir das Kurvenintegral auf Oberfl¨achenintegrale (p > 1) verallgemeinern. pdimensionale Fl¨achen M sind dann (st¨ uckweise) durch stetige Abbildungen x : Ω ⊆ Rp → n ′ R definiert, und deren Ableitung x (t) ist eine n×p - Matrix, auf deren Spalten eine p-Form ω operiert. Wir werden dann das Oberfl¨achenintegral durch Z Z Z ω := ω(x) := ω(x)(x′ (t))dtp M

M



R

definieren, wobei Ω f (t)dtp ein p-dimensionales Volumenintegral ist, das wir auch erst noch definieren m¨ ussen. Das Kurvenintegral ergibt sich f¨ ur den Spezialfall p = 1, Ω = [α, ω] (wobei dieses ω nat¨ urlich nichts mit der Bezeichnung f¨ ur Formen zu tun hat). 19.15 Beispiel. In der Thermodynamik (Bsp) sind die relevanten Gr¨oßen Funktionen des (hochdimensionalen) Zustandsvektors x der Molek¨ ule eines Gases. Der Hauptsatz der Thermodynamik dr¨ uckt eine Ungleichung zwischen 1-Formen aus: T dS ≥ dU + P dV + µ · dN,

(29)

mit den extensiven Gr¨oßen S(Entropie), U (innere Energie), V (Volumen), Nk (Zahl der Molek¨ ule der Sorte k) und den konjugierten intensiven Gr¨oßen T (absolute Temperatur), P (Druck) und µk (chemisches Potential der Sorte k). Die einzelnen Terme sind die ¨anderungen T dS(W¨armeverlust), dU der inneren Energie, P dV der mechanischen Energie und µ · dN der chemischen Energie. Interpretiert wird die Ungleichung (29) als Kurvenintegral Z Z Z Z Z T dS ≥ (dU + P dV + µ · dN ) = dU + P dV + µ · dN (30) C

C

C

C

C

u ¨ber die vom zeitabh¨angigen Zustandvektor x(t) im Phasenraum beschriebene Kurve C. Falls kein Energieaustausch stattfindet (geschlossenes System), ist die rechte Seite von (29) Null, wegen T > 0 (3.Hauptsatz) also dS ≥ 0, d.h. die Entropie kann in einem geschlossenen System nicht abnehmen (2.Hauptsatz). Oft idealisiert man und betrachtet nur reversible Vorg¨ange, die durch ein Gleichheitszeichen in (29) definiert sind; dann kann man (29) so ausdr¨ ucken, daß die 1-Form T −1 (dU + P dV + µ · dN ) exakt ist, mit der Entropie als zugeh¨origem (W¨arme-)Potential. Betrachtet man dann U, V, N als unabh¨angige Variablen, so findet man, daß sich die Entropie als Funktion S = S(U, V, N ) schreiben l¨aßt, und aus Gleichheit in (29) folgt durch Festhalten von je zwei (durch die Indizes angegebenen) Variablen:       dS 1 P µ dS dS (31) = , = , = . dU V,N T dV U,N T dN U,V T

346

KAPITEL 19. KURVENINTEGRALE

Mit (31) lassen sich also Temperatur, Druck und chemisches Potential aus dem Entropiefunktional S(U, V, N ) berechnen. Idealisiert man weiter, indem man außer der Reversibilit¨at fordert, daß kein W¨armeverlust eintritt, T dS = 0 (f¨ ur ein isoliertes System, was streng nur am absoluten Nullpunkt T = 0 gilt), so wird aus (30) der Energieerhaltungssatz (1.Hauptsatz). Z Z Z 0= dU + P dV + Cµ · dN, C

C

der besagt, daß sich die Gesamt¨anderungen der inneren, mechanischen und chemischen Energie gegenseitig aufheben. Als Anwendung beweisen wir den Integralsatz und die Integralformel von Cauchy, und zeigen, daß sich jede komplex stetig differenzierbare Funktion in eine konvergente Potenzreihe entwickeln l¨aßt. 19.16 Definition (i) Eine Funktion f : Ω → C heißt analytisch (oder holomorph) im Gebiet Ω ⊆ C, falls f in Ω stetig differenzierbar ist. (ii) f heißt analytisch (oder holomorph) in z0 ∈ C, falls f in einer Umgebung von z0 stetig differenzierbar ist. (iii) f heißt ganz, falls f in ganz C analytisch ist. Der besondere Name f¨ ur komplex differenzierbare Funktionen ist gerechtfertigt, weil – anders als im Reellen – die komplexe Differenzierbarkeit viele weiteren Eigenschaften nach sich zieht; analytische Funktionen sind von ihren Eigenschaften her die ”sch¨onsten” Funktionen in der Analysis. Wir streifen hier nur einige grundlegenden Ergebnisse und verweisen f¨ ur ein tieferes Eindringen auf die Funktionentheorie oder komplexe Analysis (zwei Namen f¨ ur dasselbe Themengebiet). 19.17 Beispiele. (i) Jede rationale Funktion f = p/q mit Polynomen p, q (q 6= 0) ist im Gebiet Ω = C \ N analytisch, wobei N die (endliche) Menge der Nullstellen von q ist. (ii) Jede Potenzreihe ist im Innern ihres Konvergenzkreises analytisch. Insbesondere sind exp, sin, cos in ganz C analytisch, also ganze Funktionen.

(iii) f (z) := z¯ definiert keine analytische Funktion, da die Steigung f [z + h, z] = (F (z + ¯ h) − f (z))/h = h/h f¨ ur h = 0 nicht stetig erg¨anzbar ist. F¨ ur kleine reelle h ist n¨amlich f [z + h, z] = 1, f¨ ur kleine rein imagin¨are h dagegen f [z + h, z] = −1. Ebenso definiert f (z) = |z|3 keine analytische Funktion, obwohl in beiden F¨allen f (x + iy) als Funktion der reellen Variablen x und y stetig differenzierbar ist. 19.18 Definition Ist f analytisch im Gebiet Ω ⊆ C und C eine durch den C 1 -Weg z : [α, ω] → Ω gegebene Kurve, so definieren wir das komplexe Kurvenintegral Z Z ω f (z)dz := f (z(t))z(t)dt, ˙ C

α

347 und analog

Z

f (z)|dz| :=

Z

ω

f (z(t))|z(t)|dt. ˙

α

C

F¨ ur st¨ uckweise C 1 -Wege sind die entsprechenden Integrale als Summe der Integrale u ¨ ber 1 die C -Teilwege definiert. Wie in Proposition 19.8 findet man, daß das komplexe Kurvenintegral linear ist und die Absch¨atzung Z Z f (z)dz ≤ |f (z)| |dz| C

gilt.

C

348

KAPITEL 19. KURVENINTEGRALE

Die besonderen Eigenschaften analytischer Funktionen beruhen auf dem folgenden grundlegenden Satz. 19.19 Satz (Integralsatz von Cauchy) f sei analytisch im Gebiet Ω ⊆ C.

(i) Sind C1 und C2 zwei im Gebiet Ω ⊆ C homotope geschlossene Wege, so gilt Z Z f (z)dz = f (z)dz. C1

C2

(ii) Ist C ein im Gebiet Ω ⊆ C verlaufender geschlossener Weg, so gilt Z f (z)dz = 0, C

falls Ω einfach zusammenh¨angend ist.

Beweis. Mit x1 = Re z, x2 = Im z ist z = x1 + ix2 , also Z Z Z ω f (x1 (t) + ix2 (t))(x˙ 1 (t) + ix˙ 2 (t))dt = F (x) · dx f (z)dz = C



α

C



f (x1 + ix2 ) . Beide Aussagen folgen also aus Satz 19.12 und Satz 19.13, da if (x1 + ix2 ) nach der Kettenregel ! ∇ f (x + ix ) ∇ f (x + ix ) 1 1 2 2 1 2 F ′ (x) = ∇1 if (x1 + ix2 ) ∇2 if (x1 + ix2 ) ! f ′ (x1 + ix2 ) if ′ (x1 + ix2 ) = if ′ (x1 + ix2 ) −f ′ (x1 + ix2 )

mit F (x) :=

⊓ ⊔

symmetrisch ist. 19.20 Beispiel. Wir berechnen das Integral von (z − z0 )n (n ∈ Z) entlang der durch z(t) = z0 + reit ,

t ∈ [0, 2π]

definierten Kreislinie Cr (z0 ) um z0 mit Radius r. Zun¨achst ist Z 2π Z Z 2π n n (reit )n ireit dt (z(t) − z0 ) z(t)dt ˙ = (z − z0 ) dz = 0 0 Cr (z0 ) Z 2π n+1 = ir ei(n+1)t dt.

(32)

0

F¨ ur n+1 = 0 ist der Integrand konstant, also hat das Integral den Wert 2πi. F¨ ur n+1 6= 0 ist i(n+1)t e /i(n+1) eine Stammfunktion, die wegen der Periodizit¨at der Exponentialfunktion an beiden Grenzen denselben Wert hat; also verschwindet das Integral in diesem Fall. Insgesamt erhalten wir ( Z 2πi falls n = −1, (z − z0 )n dz = (33) 0 sonst. Cr (z0 )

Wie vom letzten Satz her zu erwarten, ist das Ergebnis unabh¨angig von r.

349 19.21 Definition (i) Wir nennen eine durch einen Weg x : [α, ω] → C gegebene Kurve C in C einfach, falls x injektiv ist (d.h., falls der Weg keine Doppelpunkte hat).


0 gilt dann Z ∞ X p(x) iωx Res(f (z)eiωz ; ξ). e dx = 2πi q(x) −∞ q(ξ)=0 Im ξ>0

F¨ ur ω = 0 gilt dasselbe, falls deg p < deg q − 1. Beweis. Wir w¨ahlen R > 0 wesentlich gr¨oßer als die Betr¨age aller Nullstellen von q. Wir betrachten die aus den vier Seiten des Rechtecks mit den Ecken −R, R, R+iR und −R+iR bestehende Kurve C. .. ........ ........ Im z .... ... ... −R + iR R.. + iR ... . ........................................................................................• . ... •...... . ... . .. ... .. ... ... ... ... ... ... .. ........ ... ........ ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... .... .. . . .............................................................................................................................................................................................................................................................................................................................................................................................. . . ... ... ... ... ... ... .. ... ... ... ... ... ... ... . ......... ....... ...

• −R

• R

Re z

Wegen deg p < deg q ist p(z)/q(z) = O(|z|−1 ) f¨ ur |z| → ∞, also gibt es eine Konstante γ mit p(z) γ | |≤ f¨ ur z ∈ C. q(z) R Nach dem Residuensatz ist Z R+iR Z −R+iR Z −R Z R p(z) iωz p(z) iωz p(z) iωz p(z) iωz e dz + e dz + e dz + e dz q(z) q(z) R R+iR −R+iR q(z) −R q(z) = 2πi

X

q(ξ)=0 Im ξ>0

Res(f (z)eiωz ; ξ).

354

KAPITEL 19. KURVENINTEGRALE

Das zweite Integral l¨aßt sich nach der Substitution z = R + iRt, dz = iRdt durch Z 1  −ωRt 1 Z 1 p(R + iRt) −e γ γ iω(R+iRt) −ωRt = O(R−1 ) e iRdt ≤ e Rdt = q(R + iRt) R R ω 0 0 0

absch¨atzen, und das letzte Integral ergibt sich analog zu O(R−1 ). Das dritte Integral wird nach der Substitution z = −Rt + iR, dz = −Rdt abgesch¨atzt durch Z 1 Z γ 1 −ωR p(−Rt + iR) iω(−Rt+iR) e (−Rdt) ≤ e Rdt = γe−ωR · 2 = O(e−ωR ). q(−Rt + iR) R −1 −1 Also ist

Z

R

−R

X p(z) iωz Res(f (z)eiωz ; ξ) + O(R−1 ) + O(e−ωR ), e dz = 2πi q(z) q(ξ)=0 Im ξ>0

und f¨ ur R → ∞ folgt die erste Behauptung. Die zweite Behauptung ergibt sich ebenso, wenn man die wegen deg p < deg q−1 st¨arkere asymptotische Voraussetzung p(z)/q(z) = O(|z|−2 ) f¨ ur |z| → ∞ benutzt. ⊓ ⊔ 19.30 Beispiel. F¨ ur ω ≥ 0 ist Z ∞ Z ∞ eiωx eiωx dx = dx 2 2 2 2 −∞ (x + 1) −∞ (x + i) (x − i)  iωx ′   e 1 eiωx ; i = 2πi = 2πi Res (x + i)2 (x − i)2 1! (x + i)2 x=i iωeiωx (x + i)2 − eiωx 2(x + i) π(ω + 1) −ω = 2πi e . = (x + i)4 2 x=i

F¨ ur ω = 0 ergibt sich insbesondere wieder (vgl. Beispiel 19.28) Z ∞ π 1 dx = . 2 2 2 −∞ (x + 1)

Da analytische Funktionen beliebig oft differenzierbar sind, kann man ihre Taylorreihe bilden. Anders als bei reellen Funktionen ist der Konvergenzradius immer positiv, und die Summe stellt immer den entsprechenden Funktionswert dar. 19.31 Satz f sei eine im Gebiet Ω ⊆ C analytische Funktion. Liegt B(z0 ; r) ganz in Ω, so konvergiert die Taylorreihe von f in z0 f¨ ur alle z ∈ B(z0 ; r) gegen f (z), ∞ X f (n) (z0 ) n=0

n!

(z − z0 )n = f (z) f¨ ur |z − z0 | < r.

Beweis. F¨ ur |h| < r0 := |z − z0 | < r ist ∞ X k=0



X f (z) hk f (z) = (z − z0 )k+1 z − z0 k=0



h z − z0

k

=

1

f (z) z−z0 h − z−z 0

=

f (z) . z − z0 − h

(38)

355 Wegen der absoluten Konvergenz ist nach Satz 14.15(iv) gliedweise Integration der Reihe erlaubt; mit der Cauchy’schen Integralformel ergibt sich X f (k) (z0 ) X hk Z f (z)dz k h = k! 2πi Cr0 (z0 ) (z − z0 )k+1 Z 1 f (z) = = f (z0 + h). 2πi Cr0 (z0 ) z − z0 − h ⊓ ⊔ Aus diesem Satz ziehen wir nun einige Folgerungen, die wieder zeigen, daß die Klasse der analytischen Funktionen wesentlich eingeschr¨ankter ist als die der reellen stetig differenzierbaren Funktionen. 19.32 Satz (i) Die einzigen ganzen Funktionen f mit sup z∈C

|f (z)| 0 die Beziehung hε2 i ≤ αε20



Pr(|ε| ≥ ε0 ) ≤ α.

(14)

Beweis. Wegen f (ε) = ε2 − ε20 χ|ε|≥ε0 ≥ 0 ist 0 ≤ hf (ε)i = hε2 i − ε20 hχε≥ε0 i ≤ αε20 − ε20 Pr(ε ≥ ε0 ). Division durch ε20 gibt Pr(|ε| ≥ ε0 ) ≤ α.

⊓ ⊔

Die nat¨ urliche Interpretation der Wahrscheinlichkeit ist die als erwartete relative H¨aufigkeit. Um dies zu sehen, betrachten wir eine Abbildung st : K → {true, f alse}, und erweitern st zu einer Abbildung, die jeder Zufallsvariablen x die Aussage st(x) zuordnet, die ω auf st(x(ω)) abbildet. Ist etwa st(x)=”x ≥ 0” f¨ ur x ∈ K, so ist st(x) f¨ ur x ∈ W (Ω) die Aussage, die in den Experimenten ω mit x(ω) ≥ 0 wahr und in den u ¨brigen Experimenten falsch ist. 20.12 Satz Gesetz der großen Zahlen x1 , . . . , xm seien paarweise unabh¨angige Zufallsvariablen. Haben alle Aussagen st(xk ) die Wahrscheinlichkeit p, so ist p die Wahrscheinlichkeit der relativen H¨ aufigkeit Qm =

Zahl der F¨alle k, wo st(xk ) wahr ist . Zahl aller F¨alle

Außerdem gilt f¨ ur alle α > 0, ε0 > 0 und m ≥ p(1 − p)/αε20 die Beziehung |Qm − p| ≤ ε0 mit Wahrscheinlichkeit ≥ 1 − α. Beweis. Es gilt

m

Qm = also hQm i =

1 X χ , m k=1 st(xk )

1 X 1 X 1 X hχst(xk ) i = Pr(st(xk )) = p = p. m k m k m k

(15)

364

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

F¨ ur die Abweichung ε = Qm − p gilt also hεi = 0 und X m2 hε2 i = hm2 (Qm − p)2 i = h( (χst(xk ) − p))2 i k XX = h(χst(xj ) − p)(χst(xk ) − p)i. j

k

Die Beitr¨age zu dieser Summe verschwinden f¨ ur j 6= k, da die xk paarweise unabh¨angig sind, und f¨ ur j = k sind sie h(χst(xk ) − p)2 i = hχ2st(xk ) − 2pχst(xn ) + p2 i = p − 2p · p + p2 = p(1 − p) da

χ2 = χ. Also gilt m2 hε2 i =

und

X k

p(1 − p) = mp(1 − p)

p(1 − p) ≤ αε20 , m falls m ≥ p(1 − p)/αε20 . In diesem Fall erh¨alt man aus der Tschebyshev-Ungleichung Pr(|Qm − p| ≥ ε0 ) ≤ α und daher (15). hε2 i =

⊓ ⊔

F¨ ur eine gen¨ ugend große Zahl paarweise unabh¨angiger Experimente approximiert die relative H¨aufigkeit, mit der eine Aussage zutrifft, die Wahrscheinlichkeit dieser Aussage mit einer Wahrscheinlichkeit, die beliebig nahe an 1 herankommt. Man kann sich aber nie ganz sicher sein, wie nahe die (in der Praxis unbeobachtbare) Wahrscheinlichkeit dieser Aussage an der (beobachtbaren) relativen H¨aufigkeit liegt. Wesentlich f¨ ur die N¨ utzlichkeit der eingef¨ uhrten Konzepte ist, daß man die Menge Ω aller m¨oglichen Experimente nicht zu kennen braucht. Die Information, die man in der Praxis hat, bezieht sich stets auf die Erwartungswerte von Funktionen f (x) einer ausgezeichneten Zufallsvariablen oder eines ausgezeichneten Zufallsvektors. Die gesamte Information u ¨ber eine reellwertige Zufallsvariable x steckt z.B. in der durch F (ξ) := hχx≤ξ i

(16)

definierten kumulativen Verteilungsfunktion F : R → [0, 1]. 20.13 Beispiel. Im schon behandelten Beispiel 20.10 mit den W¨ urfeln ist F (ξ) := hχx≤ξ i = n X pk χξk ≤ξ , also k=1

F (ξ) =

n X k=1

wo Θ ∈ F(R) die durch

Θ(ξ) := χξ≥0 =

pk Θ(ξ − ξk ),

(

1 falls ξ ≥ 0, 0 sonst

365 definierte Heaviside-Funktion ist. (Die Heaviside-Funktion spielt in der Physik als Faktor eine wichtige Rolle. Ist z.B. F (t) eine periodische Kraft, so ist Θ(t)F (t) dieselbe, aber erst zur Zeit t = 0 eingeschaltete Kraft.) F (ξ) . 1

... ....... ......... .... ... ... ... ... n ... ... ... ... ... ... n−1 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 2 ... ... ... ... ... ... 1 ... ... ... ... ... ....................................................................................................................................................................................................................................................................................................... .......

p

p

0

n•

n•



·

·

·

•o



p

•o

p









ξ ξn−1 ξn ξ1 ξ2 ··· Die kumulativen Verteilungsfunktion F ist st¨ uckweise konstant und springt in kleinen Umgebungen von ξk mit pk > 0 um pk (falls die ξk paarweise verschieden sind). F enth¨alt also alle f¨ ur die Berechnung von Erwartungswerten n¨otige Information, da nur die ξk mit pk > 0 n X zum Erwartungswert hf (x)i = pk f (ξk ) beitragen. k=1

Auch in allgemeineren F¨allen lassen sich die Erwartungswerte aller wichtigen Funktionen f (x) bei Kenntnis von F berechnen. Man kann diese n¨amlich auf geeignete Weise durch sogenannte Treppenfunktionen approximieren, und Erwartungswerte von Treppenfunktionen lassen sich wie folgt berechnen. 20.14 Proposition (i) Ist f : R → K eine Treppenfunktion mit Stufen bei ξ0 < ξ1 < ... < ξm , d.h. verschwindet f f¨ ur x 6∈ ]ξ0 , ξm ] und nimmt f in jedem Intervall ]ξk−1 , ξk ] (k = 1, ..., m) einen konstanten Wert an, so gilt hf (x)i =

m X k=1

(F (ξk ) − F (ξk−1 ))f (xk ) f¨ ur beliebige xk ∈ ]ξk−1 , ξk ],

(17)

(ii) Die kumulative Verteilungsfunktion ist monoton wachsend und es gilt inf F (ξ) = 0,

ξ∈R

sup F (ξ) = 1.

inf F (ξ ′ ) = F (ξ) f¨ ur alle ξ ∈ R.

ξ ′ >ξ

Man nennt eine Funktion F : R → R mit der Eigenschaft (19) linksstetig. Beweis.

(18)

ξ∈R

(19)

366

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

(i) Es ist n¨amlich f (x) =

m X k=1

f (xk )χξk−1 l ↓ 0 f¨ ur l → ∞. Und (19) ergibt sich aus χx≤ξl − χx≤ξ = χξ 0 ist die Menge Ml := {x ∈ R | fl (x) ≥ ε} ′ eine Vereinigung von den endlich vielen disjunkten halboffenen Intervallen ]ξlk , ξlk ] (k = 1 : nl ), insbesondere beschr¨ankt, und aus fl+1 ≤ fl folgt Ml+1 ⊆ Ml . Wegen der Linksstetigkeit (19) gibt es Zahlen γl > 0 mit F (ξlk + γl ) − F (ξlk ) ≤ 2−l ε/nl . F¨ ur die Vereinigung El der offenen Intervalle ]ξlk , ξlk + γl [ (k = 1 : nl ) folgt daraus X X X µ(1El ) ≤ 2−l ε/nl = 2−l ε. (22) (F (ξlk + γl ) − F (ξlk )) ≤ µ(1]ξlk ,ξlk +γl ] ) = k

k

k

Wir betrachten nun die Mengen Hl := Ml \ (E1 ∪ · · · ∪ El ). Wegen Hl+1 ⊆ Ml+1 \(E1 ∪· · ·∪El ) ⊆ Hl , sind die Hl ineinander geschachtelt. Angenommen, alle Hl sind nichtleer. Dann ist die Folge der Suprema xl := sup Hl monoton fallend und nach unten durch inf M0 > −∞ (warum?) beschr¨ankt. Da Hl nach Konstruktion eine Vereinigung von h¨ochstens nl abgeschlossenen Intervallen ist, liegt x≥l in Hl ; auch x := inf xk = inf xk k≥0

k≥l

liegt daher in allen Hl . F¨ ur alle l ist also x ∈ Ml , d.h. f (xl ) ≥ ε, im Widerspruch zu fl ↓ 0.

Daher ist mindestens ein Hl leer, und es folgt Ml ⊆ E1 ∪· · · ∪El . Mit (22) ergibt sich daraus µ(1Ml ) ≤ µ(

l X k=1

1Ek ) =

l X k=1

µ(1Ek ) ≤

l X k=1

2−k ε = (1 − 2−l )ε ≤ ε.

Mit M := {x ∈ R | f0 (x) > 0} ist nun µ(fl ) ≤ µ(kfl k∞ 1Ml + ε1M ) = kfl k∞ µ(1Ml ) + εµ(1M ) ≤ kfl k∞ ε + εµ(1M ) ≤ kf0 k∞ ε + ε(F (sup M ) − F (inf M ))

368

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

und da ε > 0 beliebig war, folgt inf µ(fl ) = 0. Da die fl monoton fallen, gilt dasselbe auch f¨ ur die µ(fl ), und (21) folgt. ⊓ ⊔ R 20.16 Definition Das Bild dF f der Treppenfunktion f ∈ T (R) heißt das StieltjesIntegral von f bez. F . Man schreibt auch Z Z Z dF f = dF (x)f (x) = f (x)dF (x), wenn man das Argument x betonen will. Im wichtigsten Spezialfall F (x) = x kann man f¨ ur reellwertige Treppenfunktionen f mit Stufen bei ξ0 < ξ1 < ... < ξm das Integral Z m X µ(f ) = f (x)dx = f (xk )(ξk − ξk−1 ) f¨ ur beliebige xk ∈ ]ξk−1 , ξk ] k=1

R als den (orientierten, d.h. unterhalb der x-Achse negativ gez¨ahlten) und µ(|f |) = |f (x)|dx als den (unorientierten, d.h. auch unterhalb der x-Achse positiv gez¨ahlten) Fl¨ acheninhalt zwischen dem Graph von f und der x-Achse interpretieren (warum?).

Wir wollen diese geometrische Interpretation des Integrals erweitern, indem wir alle stetigen und m¨oglichst viele unstetige Funktionen durch R Treppenfunktionen approximieren. Es wird sich zeigen, daß dieses Vorgehen f¨ ur µ(f ) = f (x)dx gerade auf das bestimmte Integral (und Verallgemeinerungen davon) f¨ uhrt.

Will man z.B. die Funktion f mit f (x) = 1/x2 f¨ ur x 6= 0 und f (x) = 0 f¨ ur x = 0 nach oben einigermaßen genau durch eine Summe von Treppenfunktionen absch¨atzen, so braucht man unendlich viele Summanden fl ≥ 0 mit zunehmend kleineren Fl¨acheninhalt µ(fl ), die zusammengenommen die Unstetigkeitsstelle bei x = 0 u ucken. Die Summe der ¨berbr¨ P Fl¨acheninhalte µ(fl ) u urlich, aber umso weniger, ¨bersch¨atzt den Fl¨acheninhalt µ(f ) nat¨ je besser die Approximation ist; das Infimum u ber alle Approximationen von oben ergibt ¨ dann den ”wahren” Fl¨acheninhalt. 100 90 80 70 60 50 40 30 20 10 0 −2

−1.5

−1

−0.5

0

0.5

1

1.5

2

369 Der unorientierte Fl¨acheninhalt µ(|f |) mißt in gewisser Weise die Gr¨oße einer Funktion und hat, wie wir sehen werden, einige der Eigenschaften einer Norm. Wir benutzen daher dieses Approximationsverfahren, um ein Maß kf k1 f¨ ur die Gr¨oße einer beliebigen Funktion f zu definieren, das sich f¨ ur Treppenfunktionen gerade auf µ(|f |) reduziert. Wir nehmen nun ur Fl¨acheninhalte von Treppenfunktionen (den Fall Ω = R, W (Ω) = R die f¨ T (R) und µ = dx) gewonnene Intuition als Anschauung f¨ ur einen systematischen Aufbau der Integrationstheorie. Im Rest des Kapitels ist W (Ω) ein fester absoluter Funktionenraum und µ ein festes Integral auf W (Ω). 20.17 Proposition F¨ ur jede Folge fl ≥ 0 in W (Ω) gilt X X f ∈ W (Ω), |f | ≤ fl ⇒ µ(|f |) ≤ µ(fl ). l≥0

Beweis. Sei |f | ≤

X l≥0

l≥0

fl . Dann liegen die Funktionen gk := |f | −

k X

fl und hk = sup(gk , 0)

l=0

in W (Ω). Aus gk+1 = gk − fk+1 ≤ gk ergibt sich hk ↓ 0, also µ(hk ) ↓ 0 nach (3). Nun ist k k X X |f | = fl + gk ≤ fl + hk , also l=0

l=0

µ(|f |) ≤

k X l=0

µ(fl ) + µ(hk ) ≤

X

µ(fl ) + µ(hk ).

l≥0

F¨ ur k → ∞ folgt die Behauptung.

⊓ ⊔

20.18 Definition (i) F¨ ur f ∈ F(Ω) heißt o nX X µ(fl ) | |f | ≤ fl , 0 ≤ fl ∈ W (Ω) kf k1 := inf l≥0

(23)

l≥0

die 1-Norm von f (bez. µ). (ii) N ⊆ Ω heißt Nullmenge (bez. µ), falls es eine Funktion f ∈ F(Ω) gibt mit kf k1 = 0, f (x) 6= 0 f¨ ur x ∈ N. Zwei Funktionen f, g ∈ F(Ω) heißen fast u ¨ berall gleich (bez. µ), falls es eine Nullmenge N gibt mit f (x) = g(x) f¨ ur x 6∈ N.

Wir schreiben dann f (x) = g(x) f¨ ur fast alle x ∈ Ω, oder noch k¨ urzer f = g (f.¨ u.) .

Wir erweitern diese Bezeichnung entsprechend auf Ungleichungen und auf Funktionen, die nur auf Ω\N f¨ ur eine Nullmenge N definiert sind.

370

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

Die 1-Norm hat, wie wir gleich sehen werden, fast die Eigenschaften einer echten Norm. Allerdings ist es m¨oglich, daß die Norm unendliche Werte annimmt, und kf k1 kann auch f¨ ur f 6= 0 verschwinden. Im Beispiel mit den Treppenfunktionen h¨angt das damit zusammen, daß der Fl¨acheninhalt eines ”Strichs” (etwa zum Graph von f (0) = 1, f (x) = 0 f¨ ur x 6= 0) Null ist. Dieser Mangel wird durch die Definition von ”fast u berall” behoben: dieser Zusatz ¨ ¨ schluckt alle Anderungen von Funktionen, die sich nicht auf den Fl¨acheninhalt auswirken. R 20.19 Beispiele. In Beispiel 20.6(i) (und f¨ ur das Stieltjes-Integral dF mit stetigem F ) sind alle endlichen Mengen Nullmengen, in Beispiel 20.6(ii) alle Mengen, die zu M disjunkt sind, in Beispiel 20.6(iii) alle Mengen, die x0 nicht enthalten, und in Beispiel 20.6(iv) ist ¨ die leere Menge die einzige Nullmenge (Beweise als Ubungsaufgabe). Die Begriffe ”Nullmenge” und ”fast u ¨berall” h¨angen also wesentlich vom betrachteten Integral µ ab. 20.20 Proposition (Regeln fu ¨ r die 1-Norm) (i) F¨ ur f ∈ W (Ω) ist kf k1 = µ(|f |).

(ii) F¨ ur beliebige f, g ∈ F(Ω) und α ∈ K gilt kf k1 ≥ 0,

(24)

kαf k1 = |α| kf k1 ,

(25)



(27)

| kf k1 − kgk1 | ≤ kf ± gk1 ≤ kf k1 + kgk1 , |f | ≤ g

kf k1 = k |f | k1 ≤ kgk1 , X X 0 ≤ fl ∈ F(Ω), |f | ≤ fl ⇒ kf k1 ≤ kfl k1 , l≥0

kf k1 = 0

(28)

l≥0





f = g (f.¨ u.)

(26)

f = 0 (f.¨ u.),

kf k1 = kgk1 .

(29) (30)

Beweis. (i) F¨ ur f ∈ W (Ω) k¨onnen ur l > 0 w¨ahlen und erhalten aus (23) P wir f0 = |f |, fl = 0 f¨ die Ungleichung kf k1 ≤ µ(fl ) = µ(f0 ) = µ(|f |). Die umgekehrte Ungleichung folgt aus Proposition 20.17. (ii) (24)–(27) folgen direkt aus Proposition 20.4 und der Definition der 1-Norm.

(28): Nach Definition von kfl k1 k¨onnen wir nichtnegative Funktionen fkl ∈ W (Ω) mit X X |fl | ≤ fkl , µ(fkl ) ≤ kfl k1 + 2−l ε k≥0

w¨ahlen. Damit ist |f | ≤ nach (23) also kf k1 ≤

X

k,l≥0

k≥0

X

fl =

l≥0

µ(fkl ) ≤

X l≥0

X l≥0

|fl | ≤

X

fkl ,

k,l≥0

(kfl k1 + 2−l ε) ≤

X l≥0

kfl k1 + 2ε

371 wegen Beispiel 20.2. F¨ ur ε → 0 folgt (28).

(29): Ist kf k1 = 0, so ist N := {x ∈ Ω | f (x) 6= 0} Nullmenge, also f (x) = 0 f¨ ur x ∈ / N , und daher f = 0 (f.¨ u.). Ist umgekehrt f = 0 (f.¨ u.), so gibt es eine Nullmenge N mit f (x) = 0 f¨ ur x ∈ / N . Da N Nullmenge ist, gibt es eine Funktion h ∈ F(Ω) mit khk1 = 0 und h(x) 6= 0 f¨ ur x ∈ N . Setzt man nun fl := |h| f¨ ur alle l ≥ 0, so ist ( X X = ∞ ≥ |f (x)| f¨ ur x ∈ N, fl (x) = |h(x)| ≥ 0 = |f (x)| f¨ ur x ∈ / N, l≥0 l≥0 X X X also gilt |f | ≤ fl . Daher ist (28) anwendbar und liefert kf k1 ≤ kfl k1 = 0 = 0. l≥0

l≥0

l≥0

Also ist kf k1 = 0.

(30): Aus der Voraussetzung folgt f − g = 0 (f.¨ u.), nach (29) also kf − gk1 = 0. Aus (26) folgt damit | kf k1 − kgk1 | ≤ 0, also kf k1 = kgk1 . ⊓ ⊔

20.21 Proposition (i) Teilmengen einer Nullmenge sind wieder Nullmengen. (ii) Die Vereinigung von abz¨ahlbar vielen Nullmengen ist wieder Nullmenge. Beweis. (i) folgt sofort aus der Definition, und (ii) aus (28) und (29). ⊓ ⊔ Zur Approximation von Funktionen hat man eine Reihe verschiedener Grenzwertbegriffe, je nach dem, welche Intuition der Definition zugrundegelegt wird. Es ergeben sich Begriffe, die sich in ihren Eigenschaften etwas unterscheiden. 20.22 Definition Wir sagen (cf. Kapitel 13), die Folge f≥0 aus F(Ω) konvergiert

(i) punktweise gegen f ∈ F(Ω), in Formeln f = lim fl , falls l→∞

lim fl (x) = f (x) f¨ ur alle x ∈ Ω;

(31)

l→∞

(ii) gleichm¨ aßig gegen f ∈ F(Ω), in Formeln f =



lim fl , falls (mit kf k∞ = sup |f (x)|)

l→∞

x∈Ω

lim kfl − f k∞ = 0;

(32)

l→∞

(iii) fast u ur ¨ berall gegen f ∈ F(Ω), in Formeln f = 0lim fl , falls die Menge der x ∈ Ω, f¨ l→∞

die fl (x) nicht gegen f (x) konvergiert, eine Nullmenge ist;

(iv) in der 1-Norm (oder: im Mittel) gegen f ∈ F(Ω), in Formeln f = 1lim fl , falls l→∞

kfl − f k1 → 0 f¨ ur l → ∞. In allen F¨allen heißt f der Grenzwert oder Limes der Funktionenfolge.

(33)

372

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

Man beachte, daß diese Definitionen von der Wahl des Integrals µ abh¨angen, und daß die Grenzwerte 0lim fl und 1lim fl nur fast u ¨berall eindeutig bestimmt sind. Offensichtlich l→∞

l→∞

ist jede gleichm¨aßig konvergente Folge auch punktweise konvergent, und jede punktweise konvergente Folge auch fast u ¨berall konvergent, jeweils mit demselben Limes. 20.23 Beispiel. Der Unterschied zwischen Konvergenz in der 1-Norm und punktweiser oder gleichm¨aßiger Konvergenz zeigt sich z.B. an den f¨ ur l = 1, 2, . . . durch ( 1/l f¨ ur |x| ≤ l, fl (x) = 0 sonst definierten Funktionen fl ∈ T (R). Die Folge konvergiert wegen kfl k∞ = 1/l → 0 f¨ ur l → ∞ gleichm¨aßig (also auch punktweise und erst recht fast u ¨berall) gegen f = 0. Der Fl¨acheninhalt zwischen der x-Achse und dem Graph von fl hat aber den konstanten Wert 2, daher konvergieren die fl in der 1-Norm (bez. dx) nicht gegen Null (und nach Proposition 20.27 u ¨berhaupt nicht). F¨ ur die Integration sind punktweise und gleichm¨aßige Konvergenz auch deshalb zu unflexibel, weil sie fast u ¨berall gleiche Funktionen unterschiedlich behandeln. Approximation und Konvergenz in der 1-Norm ist f¨ ur das Rechnen mit Integralen dagegen besonders wichtig. 20.24 Definition f ∈ F(Ω) heißt integrierbar (bez. µ), falls sich f in der 1-Norm beliebig genau durch Funktionen fl ∈ W (Ω) approximieren l¨aßt, f = 1lim fl . f heißt intel→∞

grierbar u ¨ ber M ⊆ Ω, falls die abgeschnittene Funktion fM integrierbar ist.

Die Menge der integrierbaren Funktionen wird mit L1(Ω) bezeichnet. Wenn die Abh¨angigkeit von µ betont Rwerden soll, schreibt man statt L1 (Ω) auchRL1 (Ω, µ), im Fall des StieltjesIntegrals µ = dF aber L1 (R, dF ) und L1 (R, dx) f¨ ur µ = dx. Wir wollen die (Stieltjes-)Integrierbarkeit stetiger Funktionen zeigen. Dazu beweisen wir zun¨achst ein Hilfsresultat (vgl. Kapitel 13, gleichm¨aßige Stetigkeit).

20.25 Hilfssatz f : [α, ω] → K sei stetig, und es sei εl := sup{|f (y) − f (x)| | x, y ∈ [α, ω], |y − x| ≤ (ω − α)/2l }. Dann gilt εl ↓ 0. Beweis. Da die Menge, u ¨ber die das Supremum genommen wird, mit wachsendem l kleiner wird, ist εl+1 ≤ εl . Nach Definition von εl gibt es xl , yl ∈ [α, ω] mit |yl − xl | ≤ (ω − α)/2l und |f (yl )−f (xl )| ≥ εl /2. Da die Folge der xl beschr¨ankt ist, hat sie nach dem Satz von BolzanoWeierstraß (Satz 10.19) mindestens einen H¨aufungspunkt x∗ , und es gibt eine konvergente Teilfolge mit xlk → x∗ . Die hl := yl − xl erf¨ ullen |hl | ≤ (ω − α)/2l → 0, konvergieren also gegen Null. Damit ist 0 ≤ εlk ≤ 2|f (ylk ) − f (xlk )| = 2|f (xlk + hlk ) − f (xlk )| → 2|f (x∗ + 0) − f (x∗ )| = 0,

373 also ist inf εl = 0. ⊓ ⊔ 20.26 Satz Ist f : [α, ω] → K stetig, so ist f[α,ω] (Stieltjes-)integrierbar, d.h. f[α,ω] ∈ L1 (R, dF ) f¨ ur alle monoton wachsenden linksstetigen Funktionen F : R → R. Beweis. F¨ ur festes l ≥ 0 setzen wir ξk := α + k(ω − α)/2l (k = 0 : 2l ) und definieren dazu die Treppenfunktion 2l X fl := f (ξk )1]ξk−1 ,ξk ] . k=1

F¨ ur x ∈ ]ξk−1 , ξk ] ist |ξk − x| ≤ ξk − ξk−1 = (ω − α)/2l , nach dem Hilfssatz also |fl (x) − f[α,ω] (x)| = |f (ξk ) − f (x)| ≤ εl . Wegen ξ0 = α und ξ2l = ω verschwinden fl und f[α,ω] außerhalb von [α, ω]; also ist |fl − f[α,ω] | ≤ εl 1[α,ω] . Daraus folgt kfl − f[α,ω] k1 ≤ εl k1[α,ω] k1 = εl µ(1[α,ω] ) = εl (F (ω) − F (α)). Wegen εl → 0 folgt f[α,ω] = 1lim fl . Also ist f[α,ω] in der 1-Norm beliebig genau durch Treppenfunktionen approximierbar, also integrierbar. ⊓ ⊔ Auf ¨ahnliche Weise zeigt man auch, daß jede monotone Funktion f : [α, ω] → R Stieltjesintegrierbar ist. Wir kehren nun zum allgemeinen Fall zur¨ uck und beweisen Rechenregeln f¨ ur Grenzwerte von Funktionen. 20.27 Proposition f≥0 , g≥0 seien Folgen in L1 (Ω). Dann gilt f = 0lim fl , g = 0lim fl



f = g (f.¨ u.),

(34)

f = 1lim fl , g = 1lim fl



f = g (f.¨ u.),

(35)

l→∞

l→∞

l→∞

l→∞

Beweis. (34): Nach Definition gibt es eine Nullmenge N mit f (x) = lim fl (x) f¨ ur x ∈ / N und eine ′ ′ Nullmenge N mit g(x) = lim fl (x) f¨ ur x ∈ / N . Also gilt f (x) = g(x) f¨ ur x ∈ / N ∪ N ′ , und ′ da N ∪ N ebenfalls Nullmenge ist (Proposition 20.21), folgt f = g (f.¨ u.). (35): Es ist kf − gk1 ≤ kf − fl k1 + kg − fl k1 wegen (26). Die Schranke geht f¨ ur l → ∞ gegen Null; also ist kf − gk1 = 0,und aus (29) folgt f = g (f.¨ u.).

⊓ ⊔

374

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

20.28 Proposition f≥0 , g≥0 seien 1-konvergente Folgen in L1 (Ω). Dann gilt f = 1lim fl l→∞

|f | = 1lim |fl |,



l→∞

(36)

f = 1lim fl , α ∈ K



αf = 1lim (αfl ),

(37)

f = 1lim fl , g = 1lim gl



f ± g = 1lim (fl ± gl ),

(38)

l→∞

l→∞

l→∞

fl ≤ gl (f.¨ u.)



1

l→∞

l→∞

lim fl ≤ 1lim gl (f.¨ u.) .

l→∞

l→∞

(39)

Beweis. (36): Wegen | |fl | − |f | | ≤ |fl − f | gilt k |fl | − |f | k1 ≤ kfl − f k1 → 0 f¨ ur l → ∞, also ist 1 |f | = lim |fl |. Ebenso folgen (37) und (38). l→∞

(39): Nach Voraussetzung gibt es ein hl ∈ F(Ω) mit gl − fl = hl (f.¨ u.) und hl ≥ 0. Nun ist u.), h := 1lim hl = 1lim(gl − fl ) = 1lim gl − 1lim fl (f.¨

(40)

und wegen |h| = 1lim |hl | = 1lim hl = h ist |h| = h (f.¨ u.), also h ≥ 0 (f.¨ u.). Durch Einsetzen in (40) folgt die Behauptung. ⊓ ⊔ Im Folgenden werden wir oft Funktionen durch fast u ¨berall gleiche ersetzen, ohne dies jedesmal ausdr¨ ucklich zu rechtfertigen. 20.29 Proposition L1 (Ω) ist ein absoluter Funktionenraum, d.h. f, g ∈ L1 (Ω), α ∈ K



αf, f ± g, |f |, inf(f, g), sup(f, g) ∈ L1 (Ω).

Außerdem gilt kf k1 < ∞ f¨ ur alle f ∈ L1 (Ω). Beweis. Sind f, g ∈ L1 (Ω), so ist (nach Definition von L1 (Ω)) f = 1lim fl und g = 1lim gl f¨ ur gewisse Folgen f≥0 , g≥0 aus W (Ω). Da auch αfl , fl ± gl , |fl |, inf(fl , gl ) und sup(fl , gl ) in W (Ω) liegen, folgt die erste Behauptung aus (36)–(38) und der Definition von L1 (Ω). W¨ahlen wir ein l mit kf − fl k1 ≤ ε, so finden wir kf k1 ≤ kfl k1 + kf − fl k1 ≤ kfl k1 + ε = µ(|fl |) + ε < ∞ nach Proposition 20.20(i), und diese Schranke ist endlich.

⊓ ⊔

20.30 Proposition F¨ ur beliebige f, g ∈ F(Ω) gilt kf gk1 ≤ kf k1 kgk∞ .

(41)

Sind alle Funktionen von W (Ω) beschr¨ankt, so gilt auch f, g ∈ L1 (Ω), kgk∞ < ∞



f g ∈ L1 (Ω).

(42)

375 Beweis. Ohne Beschr¨ankung der Allgemeinheit sei α := kgk∞ < ∞. Dann ist |g| ≤ α, also |f g| = |f ||g| ≤ α|f | und daher kf gk1 = k |f g| k1 ≤ kα|f | k1 = αk |f | k1 = αkf k1 = kf k1 kgk∞ . Also gilt (41). Nach Definition von L1 (Ω) gibt es Folgen f≥0 , g≥0 aus W (Ω) mit f = 1lim fl , g = 1lim gl . Nach Voraussetzung ist kfk k∞ < ∞, nach (41) also kf g − fk gl k1 ≤ k(f − fk )gk1 + kfk (g − gl )k1 ≤ kf − fk k1 kgk∞ + kfk k∞ kg − gl k1 . F¨ ur ein gen¨ ugend großes k = kj wird der erste Term ≤ 2−j , und f¨ ur dieses k und gen¨ ugend große l = lj wird der zweite Term ≤ 2−j . Daher ist kf g − fkj glj k1 ≤ 2−j + 2−j = 21−j , also f g = 1lim fkj gkj . Das Produkt f g l¨aßt sich also beliebig genau durch die Funktionen fkj gkj ∈ W (Ω) approximieren und liegt daher in L1 (Ω). ⊓ ⊔

Der n¨achste Schritt in der Theorie ist die Erweiterung des Integrals von Funktionen in W (Ω) auf beliebige integrierbare Funktionen, also im Fall des Stieltjes-Integrals von Treppenfunktionen auf z.B. stetige oder monotone Funktionen. 20.31 Satz Es gibt genau ein lineares Funktional schaften R (D1) dµf = µ(f ) f¨ ur f ∈ W (Ω), R (D2) | dµf | ≤ kf k1 f¨ ur f ∈ L1 (Ω).

R

dµ auf L1 (Ω) mit den beiden Eigen-

Das durch (D1) und (D2) bestimmte lineare Funktional vollst¨ andigte Integral.

R

dµ heißt das zu µ geh¨orige ver-

(Den Namen verdient es eigentlich erst, wenn die Monotonieeigenschaft (50) R und die Integraleigenschaft (3) – folgt aus Satz 20.37(ii) – bewiesen sind. Man nennt dµ nach dem Entdecker des Vervollst¨andigungsprozesses auch ein Daniell-Integral.) Beweis.

(i) Eindeutigkeit. Es gelte (D1) und (D2): Ist f ∈ L1 (Ω), so ist f = 1lim fl f¨ ur geeignete l→∞

Folge f≥0 aus W (Ω). Nun ist Z µ(fl ) − dµf also gilt

Daher ist

R

(D1)

=

(D2)



Z dµ schon festgelegt.

Z Z Z dµfl − dµf = dµ(fl − f ) kfl − f k1 → 0 f¨ ur l → ∞,

dµf = lim µ(fl ). l→∞

(43)

376

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

(ii) Existenz. Wir zeigen, daß die rechte Seite von (43) existiert und nicht von der Wahl der Approximationsfolge fl abh¨angt. Ist f = 1lim fl und f = 1lim gl mit fl , gl ∈ W (Ω), so gilt l→∞

l→∞

|µ(fk ) − µ(gl )| = |µ(fk − gl )| ≤ µ(|fk − gl |) = kfk − gl k1 ≤ kfk − f k1 + kf − gl k1 → 0 f¨ ur k, l → ∞.

(44)

Im Spezialfall fl = gl f¨ ur alle l folgt |µ(fk ) − µ(fl )| → 0 f¨ ur k, l → ∞, d.h. die Folge der µ(fl ) bildet eine Cauchyfolge (in K) und konvergiert daher. Ebenso konvergiert die Folge der µ(gl ), und wegen (44) ist der Limes derselbe. Also h¨angt die rechte Seite von (43) nur von f ab und definiert daher eine Abbildung Z dµ : L1 (Ω) → K. Die Linearit¨at dieser Abbildung ist klar, und (D1) ergibt sich, wenn man in (43) fl = f f¨ ur alle l ≥ 0 setzt. Schließlich ist |µ(fl )| ≤ µ(|fl |) = kfl k1 ≤ kfl − f k1 + kf k1 , also

R | dµf | = lim |µ(fl )| ≤ lim kfl − f k1 + kf k1 = kf k1 ,

so daß auch (D2) gilt.

⊓ ⊔ R 20.32 Definition (i) Das vervollst¨andigte Stieltjes-Integral wird wieder mit dF bezeichnet. R R (ii) Im wichtigsten Spezialfall F (x) = x schreibt man dx statt dF , nennt Funktionen R R 1 f ∈ L (dx) Lebesgue-integrierbar, und dxf (x) = f (x)dx das Lebesgue-Integral von f ∈ L1 (dx). (iii) f heißt integrierbar u ¨ ber dem Intervall ]α, ω[ (−∞ ≤ α ≤ ω ≤ ∞), falls f]α,ω[ Lebesgue-integrierbar ist; analog f¨ ur halboffene und abgeschlossene Intervalle. (Da {α, ω} bzgl. dem Lebesgue-Integral eine Nullmenge ist, ist es unerheblich, ob man die Intervallgrenzen mit dazunimmt oder nicht.)

Wir wissen schon (Satz 20.26), daß stetige Funktionen auf beschr¨ankten Intervallen Stieltjesintegrierbar (und daher Lebesgue-integrierbar) sind. Jetzt k¨onnen wir Formeln angeben, nach denen sich ihre Integrale f¨ ur stetig differenzierbare F ausrechnen lassen. (Hat F Sprungstellen, so muß man das Integrationsintervall an den Sprungstellen zerlegen, um das Integral zu berechnen.) 20.33 Satz (Hauptsatz der Differential- und Integralrechnung) F : R → R sei eine beliebige stetig differenzierbare Funktion mit F ′ (x) ≥ 0 f¨ ur alle x ∈ R.

377 (i) f ∈ L1 (dF ) sei in [α, ω] stetig und β ≤ α. Dann ist die durch Z g(t) := dF f]β,t] f¨ ur t ∈ [α, ω]

(45)

definierte Funktion g : [α, ω] → K stetig differenzierbar, und es ist (”dg = f · dF ”) g ′ (t) = f (t)F ′ (t) f¨ ur t ∈ [α, ω].

(46)

(ii) Ist f ∈ C([α, ω]) und M eines der Intervalle [α, ω], [α, ω[, ]α, ω] oder ]α, ω[, so ist Z Z ω fM (x)dF (x) = f (x)F ′ (x)dx (47) α

und insbesondere

Z

fM (x)dx =

Z

ω

f (x)dx.

α

Beweis. Wegen F ′ (x)R ≥ 0 f¨ ur alle x ∈ R ist F monoton wachsend und da F stetig ist, ist das Stieltjes-Integral dF definiert. (i) Aus Proposition 20.30 folgt, daß mit f auch f]β,t] = f · 1]β,t] in L1 (dF ) liegt, also ist g wohldefiniert. Da f stetig ist, gilt ε(h) :=

sup |f (x) − f (t)| → 0 f¨ ur h → 0.

t≤x≤t+h

Wegen der Monotonie von

R

dF folgt Z Z g(t + h) − g(t) = dF (f]β,t+h] − f]β,t] ) = dF 1]t,t+h] f Z ≤ (f (t) + ε(h)) dF 1]t,t+h] = (f (t) + ε(h))(F (t + h) − F (t)),

und ebenso g(t + h) − g(t) ≥ (f (t) − ε(h))(F (t + h) − F (t)). Also ist g[t, t + h] = (f (t) + ε(h))F [t, t + h], und im Grenzwert h → 0 folgt (46).

(ii) F¨ ur M =]α, ω] folgt (47) sofort aus (46) und Satz 6.39, und da {α, ω} eine Nullmenge ist, gilt (46) auch f¨ ur die u ¨brigen drei F¨alle. ⊓ ⊔ Mit Hilfe dieser Formel haben wir nicht nur den Bezug zum bestimmten Integral hergestellt; wir k¨onnen jetzt auch die Notation des bestimmten Integrals auf den Fall erweitern, wo eine oder beide Integrationsgrenzen unendlich sind. 20.34 Definition Ist f ∈ F(R) u ¨ ber ]α, ω[ integrierbar (−∞ ≤ α ≤ ω ≤ ∞), so setzen wir Z ω Z f (x)dx := f]α,ω[ (x)dx. α

Insbesondere ist

Z



−∞

f (x)dx =

Z

f (x)dx.

378

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

Das Ausrechnen von Integralen u ¨ber unbeschr¨ankte Intervalle erfordert Grenzprozesse; wir m¨ ussen also zuerst Rechenregeln daf¨ ur herleiten. Dies machen wir wieder im allgemeinen Fall. 20.35 Proposition F¨ ur f, g ∈ L1 (Ω) gilt f = g (f.¨ u.)



f ≤ g (f.¨ u.)



|f | ≤ g (f.¨ u.) Z dµf

⇒ ≤

Z

Z

dµf =

Z

dµg,

Z

dµf ≤ dµg, Z Z dµf ≤ dµg, Z dµ|f | = kf k1 .

Beweis. Ist h =1 lim hl mit hl ∈ W (Ω), so gilt nach (36) |h| =1 lim|hl |. Daher ist Z Z (43) (43) dµh = |lim µ(hl )| = lim|µ(hl )| ≤ lim µ(|hl |) = dµ|h|.

(48) (49) (50) (51)

(52)

Ist f = g (f.¨ u.), so ist Z Z Z (D2) ) dµf − dµg = dµ(f − g) ≤ kf − gk1 (30 = 0,

also gilt (48). Ist f ≤ g (f.¨ u.), so wenden wir (52) auf ein h ≥ 0 mit h = g − f (f.¨ u.) an und finden Z Z Z Z (52) (48) dµ(g − f ) = dµh = dµ|h| ≥ dµh ≥ 0, wegen der Linearit¨at des Integrals also (49). Ist |f | ≤ g (f.¨ u.), so ist Z Z Z (49) (52) dµf ≤ dµ|f | ≤ dµg,

also gilt auch (50). Nach (D2) gilt außerdem Z dµ|f | ≤ k |f | k1 = kf k1 ,

R also folgt (51), wenn wir kf k1 ≤ dµ|f | zeigen k¨onnen. Wegen f ∈ L1 (Ω) ist f =1 limfl mit geeigneten fl ∈ W (Ω). Wegen (43) f¨ ur |f | statt f k¨onnen wir zu jedem ε > 0 eine Zahl k finden, so daß Z kf − fk k1 ≤ ε und dµ|f | − µ(|fk |) ≤ ε. (53)

Wegen der Definition der 1-Norm gibt es nichtnegative Funktionen gl ∈ W (Ω) mit X X |f − fk | ≤ gl , µ(gl ) ≤ kf − fk k1 + ε ≤ 2ε. l≥0

l≥0

379 Also ist |f | ≤ |fk | +

P

gl , und daher

kf k1

(28)





X kgl k1 = µ(|fk |) + µ(gl ) Z (53) µ(|fk |) + 2ε ≤ dµ|f | + 3ε. kfk k1 +

X

Da ε > 0 beliebig war, folgt f¨ ur ε → 0 die Ungleichung kf k1 ≤

R

dµ|f |, und daher (51). ⊓ ⊔

20.36 Beispiel. Daß man vorsichtig sein muß, wenn man Integration und Grenzwertbildung vertauschen will, zeigt die Folge der durch ( 2 2 l −x f¨ ur |x| ≤ l, l3 fl (x) = 0 sonst l=3 0.3

0.25

l=4

0.2

l=5 l=6

0.15

l=8 0.1

l = 10 l = 15

0.05

0

−10

−5

0

5

10

2

definierten Funktionen fl ∈ C(R). Die Folge konvergiert wegen kfl k∞ = ll3 = 1l gleichm¨aßig (also auch punktweise und erst recht fast u ¨berall) gegen f = 0. Wegen 0 ≤ fl = (fl )[−l,l] ist in L1 (R, dx) l   Z Z l 2 l − x2 4 l2 x − x3 /3 2 2 kfl k1 = (fl )[−l,l] (x)dx = = . dx = = − − 3 3 l l 3 3 3 −l −l Der Fl¨acheninhalt zwischen Kurve und x-Achse bleibt konstant; also konvergieren die fl in der 1-Norm nicht gegen 0. Ebenso ist Z 4 lim fl (x)dx = lim kfl k1 = , l→∞ l→∞ 3

aber (trotz punktweiser und gleichm¨aßiger Konvergenz) Z Z lim fl (x)dx = 0dx = 0. l→∞

380

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

Wir k¨onnen nun die wichtigen Konvergenzs¨atze beweisen, die hinreichende Bedingungen daf¨ ur angeben, wann man Integration und Grenzwertbildung vertauschen kann. 20.37 Satz f≥0 sei eine Folge reellwertiger Funktionen aus L1 (Ω). (i) (Vertauschbarkeit von 1-Limes und Integral) Ist f = 1lim fl , so gilt f ∈ L1 (Ω) und l→∞ Z Z dµf = lim dµfl ,

kf k1 = lim kfl k1 ,

l→∞

d.h. es ist

Z

1

dµ lim fl = lim l→∞

l→∞

Z

(54)

l→∞



1

lim fl = lim kfl k1 .

dµfl ,

l→∞

(ii) (Satz von der monotonen Konvergenz)

1

(55)

l→∞

Ist fl ↑ f oder fl ↓ f und kf k1 < ∞, so ist f = 1lim fl ∈ L1 (Ω) und (54) gilt. l→∞

(iii) Ist f = sup fl oder f = inf fl , und gilt kf k1 < ∞, so ist f ∈ L1 (Ω). l≥0

l≥0

(iv) (Lemma von Fatou) Ist f =0 lim sup fl und k sup |fl | k1 < ∞, so ist f ∈ L1 (Ω) und l→∞

l≥0

lim sup l→∞

Z

dµfl ≤

Z

dµ(0 lim sup fl ).

(56)

l→∞

(v) (Satz von der majorisierten Konvergenz) Ist f = 0lim fl und k sup |fl | k1 < ∞, so ist f = 1lim fl ∈ L1 (Ω) und (54) gilt. l→∞

l≥0

Beweis. Die Beweise sind technisch und k¨onnen u ¨bergangen werden. (i) Wegen | kf k1 − kfl k1 | ≤ kf − fl k1 → 0 ist kf k1 = lim kfl k. Die andere Gleichung in l→∞

(54) ist schwieriger zu zeigen. Nach Definition von L1 (Ω) gilt fl = 1 lim flk mit flk ∈ W (Ω). k→∞

Wegen f = 1lim fl gibt es Zahlen lj , kj mit kf − flj k1 ≤ 2−j und kflj − flj kj k1 ≤ 2−j . Also ist kf − flj kj k1 ≤ 21−j , d.h. es ist f =1 lim flj kj . Daher ist f ∈ L1 (Ω). Wegen j→∞ Z Z Z dµfl − dµf = dµ(fl − f ) ≤ kfl − f k1 → 0 f¨ ur l → ∞ folgt

R

dµf = lim

l→∞

R

dµfl .

(ii) Sei fl ↑ f . Dann ist kf − fl k1 = k =

X k≥l

XZ k≥l

=

(fk+1 − fk )k1 ≤

k≥l

dµ|fk+1 − fk | =

X Z k≥l

X

dµfk+1 −

Z

kfk+1 − fk k1

XZ k≥l

dµfk



dµ(fk+1 − fk )

= sup k≥l

Z

dµfk −

Z



dµfl .

381 R Weil die dµfk monoton wachsend und beschr¨ankt sind, geht dieser Ausdruck f¨ ur l → ∞ 1 1 gegen Null. Also ist f = lim fl , und daher f ∈ L (Ω) nach (i). l→∞

Der Fall fl ↓ f folgt durch Multiplikation mit −1.

(iii) Sei f = sup fl . Wir setzen gk := sup fk . Wegen g0 = f0 und gk = sup(gk−1 , fk ) f¨ ur k > 0 l≥0

l≤k

folgt aus Proposition 20.29, daß alle gk in L1 (Ω) liegen. Wegen gk ↑ f folgt f ∈ L1 (Ω) nach (ii). Der Fall f = inf fl folgt durch Multiplikation mit −1. (iv) Wir setzen gk := sup fi . Wegen fk ≤ gk ≤ g0 ist kgk k1 ≤ kfk k1 + kg0 k1 < ∞. Wegen i≥k

(iii) liegen also die gk in L1 (Ω). Nach Definition von f ist gk ↓ f , und wegen |f | ≤ sup |fl | 1 1 undR k sup |fl R| k1 < ∞ ist kf R k1 < ∞. Mit R (ii) folgt also fR = lim gk ∈ L (Ω). Wegen gk ≥ fk ist dµgk ≥ dµfk , also dµf = lim dµgk ≥ lim sup dµfk . Also gilt (56).

(v) Wegen (iv) ist f ∈ L1 (Ω). Also liegen auch die gl := |fl − f | in L1 (Ω). Wegen sup gl ≤ l≥0

sup |fl | + |f | ≤ 2 sup |fl | ist k sup gl k1 ≤ 2k sup |fl | k1 < ∞, also l¨aßt sich wieder (iv) l≥0

l≥0

anwenden und liefert wegen 0 lim sup gl =0 lim sup |fl − f | = 0 die Beziehung Z Z Z lim sup kfl − f k1 = lim sup dµ|fl − f | = lim sup dµgl ≤ dµ0 lim sup gl = 0 l→∞

l→∞

l→∞

Also ist kfl − f k1 → 0, d.h. f = 1lim fl .

l→∞

⊓ ⊔

20.38 Bemerkung. In (iii) folgt nicht unbedingt f = 1lim fl . Ist z.B. f > 0 mit kf k1 < ∞ und fl = q l f /2 f¨ ur l > 0, ist zwar f = sup fl , aber f¨ ur q = −1 existiert der Limes 1lim fl nicht, und f¨ ur q = 1 ist 1lim fl = f /2 und nicht f . Folgerung f≥0 sei eine Folge reellwertiger Funktionen aus L1 (Ω).

(i) Ist f = 0lim fl und |fl | ↓ |f |, so ist f = 1lim fl ∈ L1 (Ω) und (54) gilt. l→∞

(ii) Ist f = 0lim fl und |fl | ↑ |f |, und ist kf k1 endlich, so ist f = 1lim fl ∈ L1 (Ω) und (54)

gilt.

l→∞

Beweis. (i) Wegen k sup |fl | k1 = k |f0 | k1 < ∞ folgt nach dem Satz u ¨ber majorisierte Konvergenz l≥0

f = 1lim fl . (ii) Wegen k sup |fl | k1 = k |f | k1 < ∞ folgt nach dem Satz u ¨ber majorisierte Konvergenz l≥0

f = 1lim fl . ⊓ ⊔ Integrale u ¨ber unbeschr¨ankte Intervalle k¨onnen nun (unter bestimmten Bedingungen) als Grenzwerte von Integralen mit endlichen Grenzen berechnet werden:

382

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

20.39 Satz Es sei −∞ ≤ a ≤ b ≤ ∞. Ist f ∈ F(R) u ¨ ber alle beschr¨ankten Teilintervalle von ]a, b[ integrierbar und gilt lim sup α→a+0 β→b−0

Z

β

α

|f (x)|dx < ∞ ,

(57)

so ist f u ¨ ber ]a, b[ integrierbar, und es gilt Z

b

a

f (x)dx = α→a+0 lim β→b−0

Z

β

f (x)dx .

(58)

α

Beweis. Sind α≥0 und β≥0 beliebige Folgen aus ]a, b[ mit αl → a, βl → b f¨ ur l → ∞, 0 so ist f]a,b[ = lim f]αl ,βl [ . Wegen |f]αl ,βl [ | ↑ |f]a,b[ | ist |f]a,b[ | nach dem Satz u ¨ber monotone Konvergenz integrierbar, also k sup |f]αl ,βl [ | k1 = k |f]a,b[ | k1 < ∞. l≥0

Nach dem Satz u ¨ber majorisierte Konvergenz folgt nun f]a,b[ = 1lim f]αl ,βl [ , also (58).

⊓ ⊔

20.40 Beispiel. Das Integral Z

β

α

β dx = arctan x = arctan β − arctan α 2 x +1 α

bleibt wegen | arctan x| < π2 f¨ ur alle x beschr¨ankt, so daß (57) f¨ ur f (x) = 1/(x2 + 1) und a = −∞, b = ∞ erf¨ ullt ist. Also ist f u ¨ber ] − ∞, ∞[ = R integrierbar, und es ist Z ∞ π  π dx = lim arctan β − lim arctan α = − − = π. 2 α→−∞ β→∞ 2 2 −∞ x + 1 Die Bedingung (57) ist etwas unhandlich, wenn f das Vorzeichen wechselt. Meist gen¨ ugt f¨ ur die Integrierbarkeit der Nachweis einer einfachen asymptotischen Beziehung: 20.41 Satz Sei r > 0. (i) Ist f in ]0, r] stetig und gilt f¨ ur ein s < 1 die Beziehung f (x) = O(x−s ) f¨ ur x → 0,

(59)

so ist f u ¨ ber ]0, r] integrierbar. (ii) Ist f in [r, ∞[ stetig und gilt f¨ ur ein s > 1 die Beziehung f (x) = O(x−s ) f¨ ur x → ∞, so ist f u ¨ ber [r, ∞[ integrierbar.

(60)

383 Beweis. Wegen (59) bzw. (60) ist |f (x)| ≤ γx−s f¨ ur ein γ > 0, also Z

β

α

|f (x)|dx ≤

Z

β

γx−s dx = γ

α

β 1−s α1−s −γ . 1−s 1−s

(61)

(59) bzw. (60) folgen nun aus dem vorigen Satz, sobald wir die entsprechenden Voraussetzungen erf¨ ullt haben. (i) F¨ ur s < 1 und β ≤ r ist die Schranke in (61) ≤ γr1−s /(1 − s), und (57) gilt f¨ ur a = 0, b = r. (ii) F¨ ur s > 1 und α ≥ r ist die Schranke in (61) ≤ γr1−s /(s − 1), und (57) gilt f¨ ur a = r, b = ∞.

⊓ ⊔

Formeln f¨ ur viele ausgerechnete Integrale findet man in sogen. Integraltafeln. Auch die meisten Programmpakete f¨ ur symbolisches Rechnen k¨onnen viele Integrale exakt auswerten. Falls keine geschlossenen Formeln existieren, muß man Methoden der numerischen Mathematik verwenden. Zum Abschluß u ur partielle Integration auf Integrale u ¨bertragen wir noch die Regel f¨ ¨ber ganz R. 20.42 Satz (Partielle Integration) f, g ∈ C 1 (R) seien Funktionen mit lim f (x) = x→±∞

lim g(x) = 0. Sind f ′ g und f g ′ integrierbar, so gilt

x→±∞

Z



f (x)g(x)dx = −

Z

f (x)g ′ (x)dx.

Beweis. Es ist n¨amlich Z Z Z ′ ′ f (x)g(x)dx + f (x)g (x)dx = (f ′ (x)g(x) + f (x)g ′ (x))dx Z ∞ (f (x)g(x))′ dx = =

−∞

lim f (β)g(β) − lim f (α)g(α)

β→∞

α→−∞

= 0. ⊓ ⊔

384

KAPITEL 20. INTEGRATION UND WAHRSCHEINLICHKEIT

Kapitel 21 Maßtheorie In diesem Kapitel behandeln wir die Grundlagen der Maßtheorie, die f¨ ur eine genaue Definition von Volumen und Volumenintegral, Oberfl¨ache und Oberfl¨achenintegral notwendig sind. Die Maßtheorie tritt in den Anwendungen vor allem im Bereich der Wahrscheinlichkeitstheorie auf, spielt aber auch bei der mathematischen Untersuchung von partiellen Differentialgleichungen eine wichtige (in der Physik allerdings weniger ausgepr¨agte) Rolle. 21.1 Definition Ω sei ein Hausdorffraum. (i) Ω heißt lokalkompakt, falls jeder Punkt x ∈ Ω eine kompakte Umgebung besitzt. (ii) F¨ ur f ∈ F (Ω) und beliebige Teilmengen M ⊆ Ω bezeichnen wir mit fM die durch ( f (x) f¨ ur x ∈ M, fM := (1) 0 f¨ ur x ∈ /M definierte (”außerhalb von M abgeschnittene”) Funktion fM : Ω → C. Die sich f¨ ur die konstante Funktion f = 1 ergebende Funktion 1M (oft auch χM geschrieben) heißt die charakteristische Funktion der Menge M . (iii) Der Tr¨ ager (engl. support) von f ∈ F (Ω) ist die kleinste abgeschlossene Menge K mit f (x) = 0 f¨ ur x ∈ / K. Man schreibt K = Supp(f ). (iv) Cc (Ω) bezeichnet die Menge aller stetigen Funktionen f : Ω → C mit kompaktem Tr¨ager. Offenbar ist Cc (Ω) Ring und Vektorraum, also eine Algebra. 21.2 Bemerkung. Die Begriffsbildung l¨aßt sich dadurch motivieren, daß wir das bestimmRb te Integral a f (x) als Integral u ¨ber ganz R auffassen wollen, wobei der Verlauf von f (x) außerhalb von M = [a, b] nichts zum Integral beitragen darf. Also m¨ochte man Z Z b f[a,b] (x)dx f (x)dx = a

R

schreiben k¨onnen, wo f[a,b] = fM durch (1) gegeben ist und kompakten Tr¨ager (n¨amlich abgeschlossen nach Definition und beschr¨ankt, da ⊆ M ) hat. Normalerweise ist der Tr¨ager 385

386

KAPITEL 21. MASTHEORIE

gerade [a, b], z.B. immer dann, wenn f (x) nur an endlich vielen Stellen Null wird. Leider ist fk in der Regel nicht mehr stetig, und muß in der 1-Norm durch stetige Funktionen approximiert werden. Das Integral der charakteristischen Funktion eines Intervalls, Z Z b 1[a,b] dx = 1dx = b − a a

R

ist gerade die L¨ange des Intervalls. R Im Mehrdimensionalen ist es vorteilhaft, zuerst das mehrdimensionale Integral Rn f (x)dxn , das sogenannte Lebesgue-Integral, zu definieren und dann das R Volumen einer Menge M, die n im R ja eine viel kompliziertere Gestalt haben kann, durch Rn 1M dx zu erkl¨aren. So wollen wir im n¨achsten Kapitel auch vorgehen. Um die Bezeichnung einfacher zu halten, werden wir jedoch in diesem Kapitel die Notation der Daniell-Integrale benutzen, die im Hinblick auf sp¨ater also als Z Z f (x)dxn

dµf =

Rn

gedacht werden k¨onnen. Die Ergebnisse sind aber nat¨ urlich auch in anderen F¨allen richtig, und k¨onnen daher auch zur Definition der Oberfl¨ache usw. dienen.

In diesem Kapitel ist Ω stets ein lokalkompakter Hausdorffraum; man denke an R, Rn und die Kugeloberfl¨ache. Alle vern¨ unftigen R¨aume endlicher Dimension sind lokalkompakt; insbesondere gilt: 21.3 Proposition (i) Jede offene Teilmenge Ω ⊆ Rn ist lokalkompakt. (ii) Jede abgeschlossene Teilmenge Ω ⊆ Rn ist lokalkompakt. Beweis. (i) Eine offene Menge Ω enth¨alt zu jedem x ∈ Ω eine ε-Umgebung B[x; ε], die im Rn kompakt ist. (ii) Eine abgeschlossene Menge Ω enth¨alt zu jedem x ∈ Ω die ε-Umgebung Ω ∩ B[x; ε], die abgeschlossen und beschr¨ankt ist, im Rn also kompakt. ⊓ ⊔ ⊓ ⊔

21.4 Proposition F¨ ur jede kompakte Teilmenge K eines lokalkompakten Hausdorffraums Ω gilt: (i) Zu jedem x ∈ / K gibt es eine offene Umgebung U (x) mit U (x) ∩ K = ∅. (ii) Es gibt eine offene Menge U1 und eine kompakte Menge K1 ⊆ Ω mit K ⊆ U1 ⊆ K1 .

387 (iii) Zu jeder offenen Menge U ⊇ K gibt es eine offene Menge U0 mit K ⊆ U0 und kompaktem U0 ⊆ U . (Im Unterschied zu sonst bezeichnet in diesem Kapitel der Buchstabe K keinen K¨orper, sondern kompakte Mengen.) Beweis. (i) Nach dem Trennungsaxiom f¨ ur Hausdorffr¨aume gibt es zu jedem y ∈ K wegen y 6= x disjunkte offene Umgebungen U (y) von y und Uy (x) von x. Die U (y) bilden eine offene ¨ Uberdeckung von K, so daß endlich viele U (y1 ), . . . , U (ym ) ausreichen, um K zu u ¨berdecken. Die Menge U (x) := Uy1 (x) ∩ . . . ∩ Uym (x) ist dann offen und zur offenen Menge S := U (y1 )∪. . .∪U (ym ) ⊇ K disjunkt, also liegt U (x) in der abgeschlossenen Menge Ω\S. Daher ist auch U (x) ⊆ Ω\S, d.h. es ist U (x) ∩ S = ∅, wegen K ⊆ S also auch U (x) ∩ K = ∅. (ii) Da Ω lokalkompakt ist, gibt es zu jedem x ∈ K eine kompakte Umgebung K(x), nach Definition einer Umgebung also auch eine offene Umgebung ¨ U (x) ⊆ K(x). Die U (x) bilden eine offene Uberdeckung der kompakten Menge K, so daß endlich viele U (x1 ), . . . , U (xm ) ausreichen, um K zu u ¨berdecken. Die Menge U1 := U (x1 ) ∪ . . . ∪ U (xm ) ist dann eine K enthaltende offene Teilmenge der kompakten Menge K1 := K(x1 ) ∪ . . . ∪ K(xm ). (iii) K1 \U ist abgeschlossene Teilmenge der kompakten Teilmenge K1 aus (ii); also ist K1 \U selbst kompakt. Wegen U ⊇ K ist K1 \U zu K disjunkt. Also u ¨berdecken die offenen Umgebungen U (x) aus (i) die kompakte Menge K0 \U , da sie jedes x ∈ / K u ¨berdecken. Daher reichen schon endlich viele U (z1 ), . . . , U (zm ) aus, um K1 \U zu u berdecken. Also ist ¨

Die

Menge

U0

:=

U1 ⊆ K1 ⊆ U (z1 ) ∪ . . . ∪ U (zm ) ∪ U.   U1 \ U (z1 ) ∪ . . . ∪ U (zm ) ist offen,

(2) und

wegen

(2)

ist

U0 = U1 \(U (z1 ) ∪ . . . ∪ U (zm )) ⊆ U. Wegen U0 ⊆ U1 ⊆ K1 ist U0 abgeschlossene Teilmenge der kompakten Menge K1 , also selbst kompakt. ⊓ ⊔ ⊓ ⊔ Um Funktionen der Form fK flexibel approximieren zu k¨onnen, brauchen wir eine pr¨azise Version der anschaulichen Aussage, daß zwischen einer kompakten Menge und dem Rand einer sie umfassenden offenen Menge gen¨ ugend Platz ist, um von einem konstanten Plateau der H¨ohe 1 in K stetig zu einem konstanten Plateau der H¨ohe 0 außerhalb von U u ¨berzugehen. 21.5 Satz (Lemma von Urysohn) K sei kompakte Teilmenge eines lokalkompakten Hausdorffraums Ω. Dann gibt es zu jeder offenen Menge U ⊇ K eine Funktion ψ ∈ Cc (Ω) mit 1K ≤ ψ ≤ 1U . Beweis. Wir konstruieren ψ durch Einschieben vieler ”Zwiebelschalen” Kr zwischen K und U , die als H¨ohenlinien von ψ interpretiert werden sollen, Kr := {x ∈ Ω | ψ(x) ≥ r}.

388

KAPITEL 21. MASTHEORIE

Zwischen eine schon konstruierte kompakte Menge Kr und eine sie enthaltende offene Menge Us schieben wir nach Proposition 21.4 (iii) eine weitere offene Menge U(r+s)/2 mit Abschluss K(r+s)/2 := U (r+s)/2 und Kr ⊆ U(r+s)/2 ⊆ K(r+s)/2 ⊆ Us so ein, daß K(r+s)/2 kompakt ist.

K1

K3 4

K1 K1

2

4

K0 Ausgehend von U0 aus Proposition 21.4(iii), K0 := U 0 und K1 := K erhalten wir so induktiv f¨ ur alle in [0,1] liegenden abbrechenden Bin¨arzahlen p (d.h. p ∈ R mit 2m p ∈ Z f¨ ur ein m ∈ N0 ) offene Mengen Up und kompakte Mengen Kp mit Kq ⊆ Up ⊆ U p = Kp

f¨ ur 0 ≤ p < q ≤ 1.

Dies gilt sogar f¨ ur beliebige abbrechende Bin¨arzahlen p < q, falls wir noch Up := Kp := Ω f¨ ur p < 0, Up := Kp := ∅ f¨ ur p > 1 definieren. Wir definieren nun ψ ∈ F (Ω) durch ψ(x) := sup{p | p abbrechende Bin¨arzahl, x ∈ Kp } und zeigen ψ(x) ∈ [q, r] f¨ ur x ∈ Uq \Kr .

(3)

ψ(x) ∈ E f¨ ur alle x ∈ D.

(4)

Wegen Kp ⊆ Kr f¨ ur p ≥ r kann n¨amlich x ∈ Kp nur f¨ ur p < r gelten, nach Definition von ψ ist also ψ(x) ≤ r. Und wegen Uq ⊆ Kq ist x ∈ Kq , nach Definition von ψ also ψ(x) ≥ q. Also gilt (3). Aus (3) folgt nun die Stetigkeit von ψ. Wir m¨ ussen dazu zeigen, daß es zu jeder Umgebung E von ψ(x0 ) (x0 ∈ Ω) eine Umgebung D von x0 gibt mit

389 Da ψ(x0 ) im Innern von E liegt, k¨onnen wir abbrechende Bin¨arzahlen q, r mit ψ(x0 ) ⊆]q, r[ und [q, r] ⊆ E finden. Nach Definition von ψ(x0 ) ist x0 6∈ Kr und es gibt ein p ∈ ]q, ψ(x0 )] mit x0 ∈ Kp . Wegen p > q ist dann x ∈ Uq , also liegt x0 in D := Uq \Kr . Da D offen ist, ist es eine Umgebung von x0 , und wegen (3) und [q, r] ⊆ E folgt (4). Daher ist ψ stetig. Nun ist ψ(x) ≥ 0 wegen Kp = Ω f¨ ur p < 0, ψ(x) ≤ 1 wegen Kp = ∅ f¨ ur p > 1, also ψ(x) = 1 f¨ ur x ∈ K1 = K, ψ(x) = 0 f¨ ur x ∈ 6 K0 . Insbesondere ist der Tr¨ager von ψ eine (nach Definition des Tr¨agers abgeschlossene) Teilmenge der kompakten Menge K0 , also selbst kompakt, d.h. es ist ψ ∈ Cc (Ω). Wegen K0 = U 0 ⊆ U gilt schließlich auch ψ(x) = 0 f¨ ur x 6∈ U , und daher 1K ≤ ψ ≤ 1U . ⊓ ⊓ ⊔ ⊔ Wir betrachten nun die in der Definition der 1-Norm ∞ ∞ nX o X kf k1 = inf µ(fl ) |f | ≤ fl , 0 ≤ fl ∈ W (Ω) l=0

(5)

l=0

(vgl. Definition 20.18(i)) auftretenden Terme. 21.6 Proposition Gilt |f | ≤

∞ X

fl ,

l=0

0 ≤ fl ∈ Cc (Ω),

f ∈ Cc (Ω),

(6)

so gibt es zu jedem ε > 0 einen Index m ≥ 0 mit |f (x)| ≤

m X

fl (x) + ε

l=0

f¨ ur alle x ∈ Supp(f ).

(7)

Beweis. Sei ε0 > 0. Da die Ungleichung (6) punktweise gilt, gibt es zu jedem z ∈ Ω einen Index m(z) ≥ 0 mit m(z) X fl (z) + ε0 . (8) |f (z)| ≤ l=0

Wir m¨ ussen die Abh¨angigkeit von z beseitigen, indem wir ein Kompaktheitsargument benutzen. Wegen der Stetigkeit von f und den fl gibt es eine offene Umgebung U (z) von z, so daß f¨ ur alle x ∈ U (z) die Ungleichungen |f (x) − f (z)| ≤ ε0 ,

|fl (x) − fl (z)| ≤ ε0

(l = 0,··· , m(z))

(9)

gelten; der Durchschnitt der entsprechenden (endlich vielen!) offenen Umgebungen zu den einzelnen Funktionen ist n¨amlich wieder eine offene Umgebung. Da die Menge K := Supp(f )

390

KAPITEL 21. MASTHEORIE

¨ nach Voraussetzung kompakt ist, hat die offene Uberdeckung von K durch die U (z), z ∈ K eine endliche Teil¨ uberdeckung, d.h. es gibt eine endliche Teilmenge K0 von K mit x ∈ K ⇒ x ∈ U (z) f¨ ur ein z ∈ K0 . Wir k¨onnen daher die Zahl m := max{m(z)|z ∈ K0 } bilden. Ist nun x ∈ K beliebig, so ist x ∈ U (z) f¨ ur ein z ∈ K0 . Damit wird (9)

( 8)

|f (x)| ≤ |f (z)| + ε0 ≤ m(z)

(9)

X



l=0

m X

=

m(z)

X

fl (z) + 2ε0

l=0

m X (fl (x) + ε0 ) + 2ε0 ≤ (fl (x) + ε0 ) + 2ε0 l=0

fl (x) + (m + 3)ε0 .

l=0

Da ε0 > 0 beliebig war, k¨onnen wir ε0 = ε/(m + 3) w¨ahlen und erhalten (7). ⊓ ⊔

⊓ ⊔

Wir k¨onnen nun beweisen, daß wir die Theorie des vorigen Kapitels f¨ ur W (Ω) = Cc (Ω) anwenden k¨onnen. Zun¨achst ist Cc (Ω) ein absoluter Funktionenraum, da f und |f | denselben Tr¨ager haben und gleichzeitig stetig sind. Um also das Daniell-Integral benutzen zu k¨onnen, gen¨ ugt nach Satz 20.31 die folgende Aussage: 21.7 Satz Ω sei ein lokalkompakter Hausdorfraum. Dann ist jedes monotone lineare Funktional µ : Cc (Ω) → C ein Daniell-Funktional. Beweis. Wir m¨ ussen die Eigenschaft (D0) nachweisen, also kf k1 = µ(|f |) f¨ ur alle f ∈ Cc (Ω) .

(10)

Dazu m¨ ussen wir die Summe in 5 f¨ ur beliebige Folgen f≥0 mit 6 nach unten absch¨atzen. Zun¨achst benutzen wir Satz 21.5 (f¨ ur U = Ω), um eine Funktion ψ ∈ Cc (Ω) mit ψ(x) = 1 f¨ ur x ∈ Supp(f ), ψ ≥ 0 zu finden; dies geht, da Supp(f ) nach Varaussetzung kompakt ist. Wegen fl ≥ 0 und ψ ≥ 0 ist m X |f (x)| = 0 ≤ fl (x) + ǫψ(x) f¨ ur x 6∈ Supp(f ), (7)

|f (x)| ≤ also

m X

l=0

fl (x) + ǫ =

l=0

m X l=0

m X l=0

fl (x) + ǫψ(x) f¨ ur x ∈ Supp(f ),

fl ≥ |f | − ǫψ.

391 Wegen fl ≥ 0 ist µ(fl ) ≥ 0, also ∞ X

m X



µ(fl )

l=0

µ(fl ) = µ(

l=0



m X

fl )

l=0

µ(|f | − ǫψ) = µ(|f |) − ǫµ(ψ).

Da dies f¨ ur beliebige ǫ > 0 gilt, folgt im Limes ǫ → 0, daß ∞ X l=0

µ(fl ) ≥ µ(|f |).

Also ist µ(|f |) eine untere Schranke f¨ ur die Menge in (5), und deshalb ist µ(f ) ≤ kf k1 .

(11)

Die umgekehrte Ungleichung ergibt sich, indem wir zeigen, daß das Infimum angenommen wird. W¨ahlen wir n¨amlich speziell f0 = |f | und fl = 0 f¨ ur l > 0, so gilt sicher (6); also ist (5)

kf k1 ≤

∞ X l=0

µ(fl ) = µ(|f |) +

∞ X l=1

µ(0) = µ(|f |).

Zusammen mit (11) ergibt sich (10) und daher die Behauptung. ⊓ ⊔

⊓ ⊔

RIm Rest dieses Kapitels ist µ : Cc (Ω) → C ein festes monotones lineares Funktional und dµ das zugeh¨orige Daniell-Integral. 21.8 Proposition Sei kf k∞ := kf kΩ .

(i) f, g ∈ F (Ω) ⇒ kf gk1 ≤ kf k1 kgk∞ . (ii) f, g ∈ L1 (Ω), kgk∞ < ∞ ⇒ f g ∈ L1 (Ω) . Beweis. (i) O.B.d.A. sei α := kgk∞ < ∞. Dann ist |g| ≤ α, also |f g| = |f ||g| ≤ α|f | und daher kf gk1 = k|f g|k1 ≤ kα|f |k1 = αk|f |k1 = αkf k1 = kf k1 kgk∞ . (ii) Nach Definition von L1 (Ω) gibt es Folgen f≥0 , g≥0 aus Cc (Ω) mit f =1 lim fl , g =1lim gl . Da fk kompakten Tr¨ager hat, ist kfk k∞ < ∞, nach (i) also kf g − fk gl k1 ≤ k(f − fk )gk1 + kfk (g − gl )k1 ≤ kf − fk k1 kgl k∞ + kfk k∞ kg − gl k1 . F¨ ur ein gen¨ ugend großes k = kj wird der erste Term ≤ 2−j , und f¨ ur dieses k und gen¨ ugend große l = lj wird der zweite Term ≤ 2−j . Daher ist kf g − fkj glj k1 ≤ 2−j + 2−j = 21−j , also f g = 1 lim fkj gkj . f g l¨aßt sich also beliebig genau durch die Funktionen fkj gkj ∈ Cc (Ω) approximieren und liegt daher in L1 (Ω). ⊓ ⊔

392

KAPITEL 21. MASTHEORIE ⊓ ⊔

21.9 Definition (i) f ∈ F (Ω) heißt lokal integrierbar falls fK ∈ L1 (Ω) f¨ ur alle kompakten Teilmengen 1 K ⊆ Ω. Mit Lloc (Ω) bezeichnen wir die Menge aller lokal integrierbaren Funktionen f ∈ F (Ω). (ii) F¨ ur M ⊆ Ω heißt

µ(M ) := k1M k1

das (Borel-)Maß von M . Die Menge M heißt meßbar, falls 1M lokal integrierbar ist. 21.10 Bemerkungen. (i) Offensichtlich ist L1loc (Ω) ein absoluter Funktionenraum. (ii) Das Borel-Maß µ(M ) existiert f¨ ur beliebige Mengen M , hat aber – wie wie sehen werden – nur f¨ ur meßbare Mengen M die gew¨ unschten Eigenschaften beim Zusammensetzen von Mengen. F¨ ur das Volumenintegral wird µ(M ) gerade das Volumen der Menge M sein. 21.11 Beispiel. Ω sei ein diskreter Hausdorffraum, d.h. ein Raum, in dem jede Menge U mit x ∈ U Umgebung von x ist; man denke an Ω = N oder Z. In Ω sind genau die endlichen Teilmengen kompakt, und alle Funktionen f ∈ F (Ω) sind stetig. Also besteht Cc (Ω) aus den Funktionen, die nur an endlich vielen Stellen von Null verschieden sind. Die Summe X µ(f ) := f (x) f ∈ Cc (Ω) (12) x∈Ω

hat daher nur endlich viele Summanden 6= 0 und ist daher wohldefiniert. Offensichtlich ist µ ein monotones lineares Funktional. Die 1-Norm ist X kf k1 = |f (x)|, x∈Ω

und die einzige Nullmenge ist die leere Menge. Die Funktionen aus L1 (Ω) sind gerade die f , f¨ ur die die Summe Z X dµf := f (x) (13) x∈Ω

absolut konvergiert; der Wert der Summe selbst ist dann das ”Integral”. Da f¨ ur kompaktes K jedes fK endlichen Tr¨ager hat, ist jede Funktion f ∈ f (Ω) lokal integrierbar bez. µ; also ist auch jede Teilmenge von Ω meßbar. Das Maß der Menge M ist X X µ(M ) = k1M k1 = |1M (x)| = 1 = |M | (”Z¨ahlmaß”). x∈Ω

¨ (Beweise dieser Aussagen als Ubungsaufgabe.)

x∈M

393 Dieses Beispiel stellt den einfachsten Fall dar – in nichtdiskreten Hausdorffr¨aumen sind nicht mehr alle Funktionen stetig, dann brauchen auch nicht mehr alle Funktionen lokal integrierbar zu sein und nicht mehr alle Mengen meßbar. Wir m¨ ussen daher Bedingungen f¨ ur lokale Integrierbarkeit und Meßbarkeit herleiten. 21.12 Satz (i) F¨ ur kompaktes K ist 1K ∈ L1 (Ω). (ii) Jede Funktion f ∈ L1 (Ω) ist lokal integrierbar. (iii) Jede auf ihrem Tr¨ager stetige Funktion f ist lokal integrierbar. (iv) Ist f lokal integrierbar und kf k1 < ∞, so ist f ∈ L1 (Ω). Beweis. (i) Wir setzen zus¨atzlich voraus,daß Ω ⊆ Rn ist; das erspart uns kompliziertere topologi¨ sche Uberlegungen und reicht f¨ ur unsere Anwendungen aus. Mit U (δ) bezeichnen wir die Vereinigung aller offenen δ-Umgebungen von Punkten aus K. Als Vereinigung von (beliebig vielen) offenen Mengen ist U (δ) wieder offen, und nach Konstruktion ist K ⊆ U (δ). Da K kompakt ist, ist K beschr¨ankt, also r := sup kxk < ∞. Nach Konstruktion liegt U (δ) also x∈K

in B[0; r + δ]. Insbesondere ist U (δ) beschr¨ankt, also U (δ) kompakt. Ist x ∈ / K, so ist ǫ := inf{kx′ − xk |x′ ∈ K} > 0, da das Infimum auf der kompakten Menge angenommen wird. Also ist x ∈ / U (δ) f¨ ur gen¨ ugend kleine δ > 0. Die offenen Mengen −l Ul := U (2 ) erf¨ ullen also \ U0 ⊇ . . . ⊇ Ul ⊇ Ul+1 ⊇ . . . , Ul = K. l≥0

Da die U l+1 kompakte Teilmengen von Ul sind, gibt es nach Satz 21.5 Funktionen ψl ∈ Cc (Ω) mit 1U l+1 ≤ ψl ≤ 1Ul . Wegen 1Ul ≤ 1U l ist ψl ≤ ψl−1 , wegen 1K ≤ 1U l+1 ≤ inf ψl ≤ inf 1Ul = 1K l≥0

l≥0

ist also ψl ↓ 1K . Daher ist der Satz von der monotonen Konvergenz anwendbar und liefert 1K ∈ L1 (Ω). (ii) F¨ ur jedes kompakte K ⊆ Ω ist 1K ∈ L1 (Ω) und k1K k∞ = 1. Nach Proposition 21.8(ii) ist also fK = f · 1K ∈ L1 (Ω) f¨ ur alle kompakten K ⊆ Ω. Also ist f lokal integrierbar. (iii) Sei zun¨achst fK ≥ 0 und m eine ganze Zahl ≥ kf kK . Da f in K stetig ist, ist jede der Mengen Kil := {x ∈ K|2l fK (x) ≥ i} (i, l ∈ N) abgeschlossene Teilmenge der kompakten Menge K, also selbst kompakt. Nach (i) ist 1Kil ∈ L1 (Ω), also auch l

−l

fl := 2

2m X i=1

1Kil ∈ L1 (Ω).

394

KAPITEL 21. MASTHEORIE

Nach Konstruktion ist der Wert 2l fl (x) gleich der Zahl der i ∈ N mit x ∈ Kil , also gerade gleich der gr¨oßten ganzen Zahl ≤ 2l fK (x). Daher ist fl (x) gerade die Bin¨arzahl, die aus fK (x) durch Abbrechen nach l-ten Stelle nach dem Komma entsteht. Daraus folgt fl ↑ fK . Wegen fK ≤ m · 1K ist außerdem kfK k1 ≤ mk1K k1 < ∞, also nach dem Satz von der monotonen Konvergenz fK ∈ L1 (Ω). F¨ ur beliebiges, reellwertiges f ist g := f +kf kK 1K in K stetig und gK ≥ 0, also gK ∈ L1 (Ω), daher auch fK = gK − kf kK 1K ∈ L1 (Ω). Und f¨ ur komplexwertiges f ist fK = Re fK + 1 i Im fK ∈ L (Ω), da Re fK = (Re f )K und Im fK = (Im f )K in L1 (Ω) liegen. (iv) (F¨ ur Ω ⊆ Rn :) Mit fl := fΩ ∩ B[0; l] ist f = lim fl , sup |fl | = |f | und fl ∈ L1 (Ω), also folgt die Behauptung aus dem Satz von der majorisierten Konvergenz. ⊓ ⊔ ⊓ ⊔ Wir zeigen nun, daß alle interessanten Mengen meßbar sind. 21.13 Satz (i) Jede offene Menge M ⊆ Ω ist meßbar. (ii) Jede abgeschlossene Menge M ⊆ Ω ist meßbar. (iii) F¨ ur kompakte Mengen M ⊆ Ω ist µ(M ) < ∞. (iv) Ist M ⊆ Ω meßbar und µ(M ) < ∞, so ist 1M ∈ L1 (Ω) und µ(M ) = Beweis.

R

dµ1M .

(i) Ist M offen und K kompakt, so ist K\M kompakt, also (1M )K = 1M ∩K = 1K − 1K\M ∈ L1 (Ω) nach Satz 21.12(i). Daher ist 1M lokal integrierbar, also M meßbar.

395 (ii) Ist M abgeschlossen und K kompakt, so ist M ∩ K kompakt, also (1M )K = 1M ∩K ∈ L1 (Ω) nach Satz 21.12(i). Daher ist 1M lokal integrierbar, also M meßbar. (iii) Ist M kompakt, so ist 1M ∈ L1 (Ω), also µ(M ) = k1M k1 < ∞. (iv) folgt direkt aus Satz 21.12(iv). ⊓ ⊔ ⊓ ⊔

21.14 Satz Es gilt: (M1) ∅ und Ω sind meßbar. (M2) Mit M und N sind auch M ∩ N, M \ N und M ∪ N meßbar. (M3) Ist M≥0 eine aufsteigende Folge meßbarer Mengen mit Vereinigung M , d.h. gilt M0 ⊆ . . . ⊆ Ml ⊆ Ml+1 ⊆ . . . ⊆ M =

∞ [

Ml ,

(14)

l=0

so ist auch M meßbar. (Statt (14) schreibt man kurz Ml ↑ M .) (M4) Ist M meßbar, so ist µ(M ) ≥ 0. (M5) Sind M und N disjunkte meßbare Mengen, so ist µ(M ∪ N ) = µ(M ) + µ(N ). (M6) Ist M≥0 eine aufsteigende Folge meßbarer Mengen mit Vereinigung M , so ist µ(M ) = sup µ(Ml ). l≥0

Beweis. (M1): folgt aus Satz 21.13(i), da ∅ und Ω abgeschlossen (relativ zu Ω) sind. (M2): Sind M und N meßbar und ist K kompakt, so ist 1(M ∩N )∩K = 1M ∩K 1N ∩K ∈ L1 (Ω) nach Proposition 21.8(ii). Damit ist auch 1(M \N )∩K = 1M ∩K − 1(M ∩N )∩K ∈ L1 (Ω) und 1(M ∪N )∩K = 1N ∩K + 1(M \N )∩K ∈ L1 (Ω). Also sind 1M ∩N , 1M \N und 1M ∪N lokal integrierbar, d.h. M ∩ N , M \N und M ∪ N sind meßbar. (M3): Wegen (14) gilt 1Ml ∩K ↑ 1M ∩K ; wegen k1M ∩K k1 ≤ k1K k1 = µ(K) < ∞ ist der Satz von der monotonen Konvergenz anwendbar und liefert 1M ∩K ∈ L1 (Ω). Also ist 1M lokal integrierbar, d.h. M ist meßbar. (M4): µ(M ) = k1M k1 ≥ 0. (M5): F¨ ur disjunkte M und N ist 1M ∪N = 1M + 1N . Wegen (M2) und Satz 21.13(iv) ergibt sich Z Z Z µ(M ∪ N ) = dµ1M ∪N = dµ1M + dµ1N = µ(M ) + µ(N ). (M6): Zun¨achst ist µ(M ) = k1M k1 ≥ k1Ml k1 = µ(Ml ), also µ(M ) ≥ sup µ(Ml ). l≥0

(15)

396

KAPITEL 21. MASTHEORIE

Ist sup µ(Ml ) = ∞, so folgt aus (15) die Gleichung µ(M ) = ∞ = sup µ(Ml ) und die Behauptung folgt. Ist sup µ(Ml ) < ∞, so setzen wir M−1 := ∅,

Sl := Ml \Ml−1 (l ≥ 0).

Damit ist l X

µ(Sk ) =

k=0

also

l X (µ(Mk ) − µ(Mk−1 )) = µ(Ml ) − µ(M−1 ) = µ(Ml ), k=0

∞ X k=0

k1Sk k1 =

Daher ist die Summe 1M = daher 1M ∈ L1 (Ω)und

∞ X

∞ X

k=0

µ(Sk ) = lim µ(Ml ) ≤ sup µ(Ml ) < ∞. l→∞

(16)

l≥0

1Sk in der 1-Norm absolut konvergent. Aus Satz 20.37 folgt

k=0

µ(M ) = k1M k1 =

Z

dµ1M =

∞ X

dµ1Sk =

k=0

∞ X k=0

(16)

µ(Sk ) ≤ sup µ(Ml ). l≥0

⊓ ⊔

Zusammen mit (15) folgt µ(M ) = sup µ(Ml ). ⊓ ⊔

Anstelle des hier gew¨ahlten Aufbaus des Integralbegriffs findet man in vielen B¨ uchern den umgekehrten Weg, der mit einem Maß beginnt. Dann nimmt man die Aussagen (M1)-(M6) als Axiome, die an den Anfang gestellt werden. 21.15 Definition (i) Ω heißt eine σ-Algebra, falls in Ω gewisse Teilmengen als meßbar ausgezeichnet sind, so daß die Axiome (M1)-(M3) gelten. (ii) Eine Abbildung µ, die jeder meßbaren Menge M einer σ-Algebra Ω ein µ(M ) ∈ R+ ∪ {∞} zuordnet, heißt ein Maß (¨ uber Ω), falls die Axiome (M4)-(M6) gelten. 21.16 Bemerkung. Gilt außerdem µ(Ω) = 1, so heißt µ ein Wahrscheinlichkeitsmaß. Die meßbaren Teilmengen von Ω k¨onnen dann als Ereignisse interpretiert werden, und das Maß µ(M ) als die Wahrscheinlichkeit daf¨ ur, daß M eintritt. Man denke dabei an den ¨ W¨ urfel, Ω = {1, ..., 6}. Zur Ubung interpretiere man (M1)-(M6) in dieser Sprechweise. 21.17 Satz (i) Die Vereinigung und der Durchschnitt abz¨ahlbar vieler meßbarer Mengen ist wieder meßbar. (ii) Sind Al (l ∈ L) abz¨ahlbar viele disjunkte Mengen, so gilt ! [ X Al = µ(Al ) . µ l∈L

l∈L

397 (iii) Ist Al (l = 0, 1, . . .) eine absteigende Folge meßbarer Mengen (also Al+1 ⊆ Al ) und ist µ(A0 ) < ∞, so gilt ! \ µ Al = inf µ(Al ) . l≥0

l≥0

(iv) F¨ ur meßbare Mengen A, B gilt A ⊆ B ⇒ µ(A) ≤ µ(B) , µ(A) + µ(B) = µ(A ∪ B) + µ(A ∩ B) . (v) Es ist µ(∅) = 0. Beweis. Zum Beweis gen¨ ugen die Axiome (M1)-(M6). Die Deteils ersparen wir uns. ⊓ ⊔

⊓ ⊔

21.18 Konvention (i) Ist f integrierbar, so schreiben wir Z Z dµ(x)f (x) = dµf, um die Abh¨angigkeit von f von x zum Ausdruck zu bringen. (ii) Ist fM integrierbar, so schreiben wir Z Z Z dµ(x)f (x) = dµf := dµfM . M

M

Im Rest des Kapitels betrachten wir parameterabh¨angige Integrale. Sei dazu M ⊆ Ω, E ⊆ Rp , und f : M × E → C sei eine Abbildung, f¨ ur die die Funktionen fM (·, t) (t ∈ E) 1 alle zu L (Ω) geh¨oren. Dann ist durch Z g(t) := dµ(x)f (x, t) (17) M

eine Funktion g : E → C definiert. 21.19 Satz (i) H¨angt f (x, t) f¨ ur jedes feste x ∈ M stetig von t ab, und ist k sup |f (·, t)|k1 < ∞, so t∈E

ist g stetig.

(ii) H¨angt f (x, t) f¨ ur jedes feste x ∈ M stetig differenzierbar von t ab und ist k sup |∂t f (·, t)|k1 < ∞, so ist g stetig differenzierbar, und es ist Z ′ g (t) = dµ(x)∂t f (x, t). M

t∈E

(18)

398

KAPITEL 21. MASTHEORIE

Beweis. (i) Sei t = lim tl . Wir setzen fl (x) := f (x, tl ), f∞ (x) := f (x, t). Nach Voraussetzung gilt f∞ = 0 lim fl und k sup |fl |k1 < ∞, also ist f∞ = 1 lim fl nach dem Satz u ¨ber majorisierte l R R Konvergenz, und daher g(t) = M dµf∞ = lim M dµfl = lim g(tl ). Daher ist g stetig. (ii) Setze

fs (x, t) :=

(

(f (x, t) − f (x, s))/(t − s) ∂t f (x, s)

f¨ ur t 6= s, f¨ ur t = s.

Nach dem Mittelwertsatz ist fs (x, t) = ∂t f (x, τ ) f¨ ur ein τ , also ist k sup |fs (·, t)|k1 < ∞. t∈E

Die Voraussetzungen von (i) sind also mit fs statt f erf¨ ullt; daher ist Z gs (t) := dµ(x)fs (x, t)dt M

in t stetig. F¨ ur t 6= s ist Z gs (t) = dµ(x)(f (x, t) − f (x, s))/(t − s) = (g(t) − g(s))/(t − s) = g[s, t], M

also ist g ′ (s) = g[s, s] = gs (s) =

R

M

dµ(x)∂t f (x, s), und dies ist stetig nach (i). ⊓ ⊔ ⊓ ⊔

Wir sind nun in der Lage, zweifache Integrale zu definieren. Die Beweise lassen wir aus Zeitgr¨ unden weg. 21.20 Proposition Sind µ1 : Cc (Ω1 ) → C und µ2 : Cc (Ω2 ) → C zwei monotone lineare Funktionale u ¨ ber Cc (Ω1 ) und Cc (Ω2 ), so ist durch Z Z  (µ1 × µ2 )(f ) := dµ1 (x1 ) dµ2 (x2 )f (x1 , x2 ) f¨ ur f ∈ Cc (Ω1 × Ω2 ) Ω1

Ω2

ein monotones lineares Funktional µ1 × µ2 u ¨ ber Cc (Ω1 × Ω2 ) definiert. F¨ ur separable Funktionen, d.h. Funktionen f mit f (x1 , x2 ) = f1 (x1 )f2 (x2 ) f¨ ur x1 ∈ Ω1 , x2 ∈ Ω2 gilt (µ1 × µ2 )f = µ1 (f1 )µ2 (f2 ). 21.21 Satz (Fubini) F¨ ur f ∈ L1 (Ω1 × Ω2 ) gilt:

399 (i) F¨ ur fast alle x1 ∈ Ω1 ist f (x1 , ·) ∈ L1 (Ω2 ), die durch Z g1 (x1 ) := dµ2 (x2 )f (x1 , x2 ) Ω2

f.¨ u. definierte Funktion g1 : Ω1 → C liegt in L1 (Ω1 ), und es gilt Z Z  Z dµ2 (x2 )f (x1 , x2 ) . dµ1 (x1 ) d(µ1 × µ2 )f = Ω2

Ω1

(ii) F¨ ur fast alle x2 ∈ Ω2 ist f (·, x2 ) ∈ L1 (Ω1 ), die durch Z g2 (x2 ) := dµ1 (x1 )f (x1 , x2 ) Ω1

f.¨ u. definierte Funktion g2 : Ω2 → C liegt in L1 (Ω2 ), und es gilt Z Z Z d(µ1 × µ2 )f = dµ2 (x2 ) dµ1 (x1 )f (x1 , x2 ). Ω2

Ω1

Merkregel: F¨ ur f ∈ L1 (Ω1 × Ω2 ) gilt Z Z Z Z Z dµ1 dµ2 f = dµ2 dµ1 f = d(µ1 × µ2 )f. 21.22 Bemerkung. Dies ist die Integralversion der Aussage, daß sich Summenzeichen bei absolut konvergenten Doppelsummen vertauschen lassen. Man erh¨alt dies gerade als Spezialfall, wenn man f¨ ur Ω1 und Ω2 diskrete Hausdorffr¨aume w¨ahlt. Man sieht daraus auch, daß man die Bedingung f ∈ L1 (Ω1 × Ω2 ) (die der absoluten Konvergenz der Doppelsumme entspricht) nicht weglassen darf.

400

KAPITEL 21. MASTHEORIE

Kapitel 22 Volumenintegrale In diesem Kapitel konkretisieren wir (endlich!) die Aussagen der letzten beiden Kapitel, indem wir sie auf die Integration im Rn anwenden. Als Spezialfall erhalten wir f¨ ur n = 1 Aussagen u ¨ber eindimensionale Integrale u ¨ber unbeschr¨ankte Intervalle, insbesondere die Gammafunktion. Damit lassen sich rotationssymmetrische Funktionen im Rn leicht integrieren. Aus der Charakterisierung des Volumenintegrals als eindeutig bestimmtes normiertes translationsinvariantes Integral leiten wir dann die Substitutionsregel ab, die die Integration in krummlinigen Koordinaten (z.B. Polarkoordinaten) erlaubt. Ebenso l¨aßt sich die partielle Integration auf den Rn ausdehnen und erlaubt einen Ausblick auf den Gaußschen Integralsatz. In diesem Kapitel ist Ω = Rn , und Kugeln sind stets in der euklidischen Norm k · k2 zu verstehen. 22.1 Proposition Durch Z r Z dx1 µn (f ) := −r

r

−r

dx2 · · ·

Z

r

−r

dxn f (x1 , . . . , xn ) f¨ ur Supp f ⊆ B[0; r]

(1)

wird ein monotones lineares Funktional µn auf Cc (Rn ) definiert. F¨ ur g ∈ Cc (Rn ) und h ∈ Rn gilt f (x) = g(αx + h) f¨ ur alle x ∈ Rn ⇒ µn (g) = |α|n µn (f ). (2) Beweis. F¨ ur f ∈ Cc (Rn ) ist Supp f kompakt, liegt also in einer Kugel B[0; r]; und wegen P x2i ≤ x2i = kxk22 ≤ r2 f¨ ur x ∈ Suppf ist f (x) = 0, falls ein |xi | > r. Daher ist (1) unabh¨angig von r, und offensichtlich ist µn linear und monoton. (2) folgt, indem man in (1) f (x1 , . . . , xn ) = g(αx1 + h1 , . . . , αxn + hn ) setzt und die Substitutionen yi = αxi + hi durchf¨ uhrt. Da f¨ ur α < 0 auch eine Vertauschung der Interpretationsgrenzen n¨otig ist, f¨allt das Vorzeichen von α weg. ⊓ ⊓ ⊔ ⊔ Im Folgenden beziehen wir uns f¨ ur Ω = Rn immer auf das durch (1) definierte monotone lineare Funktional µ = µn . 22.2 Definition (i) F¨ ur M ⊆ Rn nennt man Vol(M ) := µn (M ) das Volumen (bzw. f¨ ur n = 2 die Fl¨ ache, f¨ ur n = 1 die L¨ ange) von M . Mit πn bezeichnen wir das Volumen 401

402

KAPITEL 22. VOLUMENINTEGRALE der (euklidischen) Einheitskugel im Rn , πn := Vol{x ∈ Rn | kxk2 ≤ 1} .

(ii) Wir nennen

Z

n

f (x)dx :=

Z

dµn f

R das Volumenintegral von f ∈ L1 (Rn ). Statt f (x)dxn schreibt man f¨ ur n = 2, 3 auch Z Z Z Z f (x, y)dydx bzw. dx dy f (x, y) und Z Z Z

f (x, y, z)dzdydx bzw.

Z

dx

Z

dy

Z

dz f (x, y, z).

(iii) Ist M ⊆ Rn und fM ∈ L1 (Rn ), so nennt man f u ¨ ber M integrierbar, und Z Z n f (x)dx := fM (x)dxn M

heißt das Volumenintegral von f u ¨ ber M . Insbesondere ist Z Z n f (x)dx = f (x)dxn . Rn

22.3 Satz Ist f ∈ C([a, b]), so ist Z

[a,b]

1

f (x)dx =

Z

1

f (x)dx =

Z

b

f (x)dx.

a

]a,b[

f (x)

ǫ

ǫ x

403 Beweis. F¨ ur ε = 2−l definieren wir durch   0       1 − a−x f (a)  ε fl (x) := f (x)    x−b  1 − ε f (b)     0

f¨ ur f¨ ur f¨ ur f¨ ur f¨ ur

x ≤ a − ε, a − ε < x < a, a ≤ x ≤ b, b < x < b + ε, b+ε≤x

eine Funktion fl ∈ Cc (Ω), und nach dem Satz von der majorisierten Konvergenz ist f]a,b[ = 1 lim fl . Also ist Z Z Z 1 f (x)dx = dµ1 f]a,b[ = lim dµ1 fl = lim µ1 (fl ). l→∞

]a,b[

l→∞

F¨ ur r ≥ ε + max{|a|, |b|} ist Z r µ1 (fl ) = fl (x)dx −r   Z b+ε  Z b Z a  x−b a−x 1− f (x)dx + f (a)dx + f (b)dx 1− = ε ε b a a−ε Z b Z b ε ε f (a) + f (b) = f (x)dx + f (b) = f (x)dx + 2−l f (a) + , 2 2 2 a a Z b f (x)dx. ⊓ also lim µ1 (fl ) = ⊔ l→∞

a

⊓ ⊔

22.4 Definition (i) Ist f ∈ F (R) u ¨ ber ]a, b[ integrierbar (−∞ ≤ a ≤ b ≤ ∞), so setzen wir Z b Z f (x)dx := f (x)dx1 ; a

]a,b[

wegen Satz 22.3 stimmt dies f¨ ur in [a, b] stetige f mit der Definition aus Kapitel 5 u ¨ berein. Insbesondere ist Z Z ∞ 1 f (x)dx = f (x)dx. −∞

(ii) F¨ ur a, b ∈ Rn mit ak ≤ bk (k = 1, . . . , n) heißt Qn [a, b] := {x ∈ Rn |ak ≤ xk ≤ bk f¨ ur k = 1, . . . , n} der n-dimensionale Quader mit linkem unteren Eckpunkt a und rechtem oberen Eckpunkt b.

404

KAPITEL 22. VOLUMENINTEGRALE

22.5 Satz F¨ ur Integrale u ¨ ber einen n-dimensionalen Quader gilt

Z

n

f (x)dx =

Qn [a,b]

Z

b1

a1

dx1 . . .

Z

bn

dxn f (x1 , . . . , xn ).

(3)

an

Insbesondere ist

vol(Qn [a, b]) = (b1 − a1 ) · . . . · (bn − an ).

(4)

Beweis. (3) folgt f¨ ur n = 1 aus Satz 22.3, und allgemein induktiv mit dem Satz von Fubini. Rb (4) ergibt sich aus (3) f¨ ur f = 1 wegen akk dxk = bk − ak . ⊓ ⊓ ⊔ ⊔

405 22.6 Proposition (i) M ⊆ Rn beschr¨ankt

⇒ vol(M ) < ∞.

(ii) M ⊆ Rn , int(M ) 6= ∅ ⇒ vol(M ) > 0. (iii) M ⊆ Rn offen ⇒ ∂M ist Nullmenge. (iv) Abz¨ahlbare Teilmengen des Rn sind Nullmengen. ⊓ ⊔

Beweis. Weggelassen. ⊓ ⊔

22.7 Satz Es sei Ml ↑ M , und f ∈ F (Rn ) sei u ¨ ber alle Ml integrierbar. Ist Z lim |f (x)|dxn < ∞ , l→∞

Ml

so ist f u ¨ ber M integrierbar und es gilt Z Z n f (x)dx = lim l→∞

M

f (x)dxn .

Ml

Beweis. Es ist fM = 0 lim fMl . Wegen |fMl | ↑ |fM | ist |fM | nach dem Satz u ¨ber monotone Konvergenz integrierbar, also ksup|fMl |k1 = k|fM |k1 < ∞. Nach dem Satz u ¨ber majorisierte l≥0

Konvergenz folgt nun fM = 1 lim fMl , und daher Z Z Z Z n f (x)dx = dµn fM = lim dµn fMl = lim l→∞

M

l→∞

Ml

f (x)dxn . ⊓ ⊔ ⊓ ⊔

22.8 Satz Ist f ∈ F (R) u ¨ ber alle kompakten Teilintervalle von ]a, b[ integrierbar und gilt Z β |f (x)|dx < ∞ , lim α→a+0 β→b−0

α

so ist f u ¨ ber ]a, b[ integrierbar, und es gilt Z b Z f (x)dx = α→a+0 lim a

β→b−0

β

f (x)dx .

(5)

α

Beweis. Wir wenden den vorigen Satz mit M =]a, b[ und Ml = [αl , βl ] an, wobei α≥0 und β≥0 beliebige Folgen aus ]a, b[ mit αl → α, βl → β f¨ ur l → ∞ sind. ⊓ ⊓ ⊔ ⊔

406

KAPITEL 22. VOLUMENINTEGRALE

22.9 Satz Sei r > 0. (i) Ist f in ]0, r] stetig und gilt f¨ ur ein s < 1 die Beziehung f (x) = O(x−s ) f¨ ur x → 0,

(6)

so ist f u ¨ ber ]0, r] integrierbar. (ii) Ist f in [r, ∞[ stetig und gilt f¨ ur ein s > 1 die Beziehung f (x) = O(x−s ) f¨ ur x → ∞,

(7)

so ist f u ¨ ber [r, ∞[ integrierbar. Beweis. Wegen (6) bzw. (7) ist |f (x)| ≤ γx−s f¨ ur ein γ > 0, also Z β Z β β 1−s α1−s γx−s dx = γ |f (x)|dx ≤ −γ . 1−s 1−s α α

(8)

(i) F¨ ur s < 1 und β ≤ r ist die Schranke in (8) ≤ γr1−s /(1−s), und (4) gilt f¨ ur a = 0, b = r. (ii) F¨ ur s > 1 und α ≥ r ist die Schranke in (8) ≤ γr1−s /(s − 1), und (4) gilt f¨ ur a = r, b = ∞. ⊓ ⊔ ⊓ ⊔

22.10 Beispiel. Die Gammafunktion ist f¨ ur x > 0 durch Z ∞ Γ(x) := tx−1 e−t dt

(9)

0

definiert. Daß dieses Integral existiert, sieht man durch Aufspalten des Integrations-intervalls in ]0, 1] und [1, ∞[. Die Integrierbarkeit in ]0, 1] folgt aus (6) mit t statt x und s = 1−x < 1, und die Integrierbarkeit in [1, ∞[ folgt aus (7) mit t statt x und s = 2, da tx+1 = O(et ) f¨ ur −t x−1 −2 t → ∞, also e t = O(t ) ist. Bestimmte Werte der Gammafunktion lassen sich leicht mit (5) berechnen. F¨ ur x = 1 ist Z ∞ Z r e−t dt = lim Γ(1) = e−t dt = lim (−e−r + 1) = 1. 0

r→∞

0

r→∞

F¨ ur x > 0 ergibt partielle Integration Z r r Z r x −t x −t t e = t (−e ) − (xtx−1 )(−e−t )dt ǫ ǫ ǫ Z r x −ǫ x −r = ǫ e −r e +x tx−1 e−t dt. ǫ

Im Grenzwert ǫ → 0, r → ∞ folgt daraus

Γ(x + 1) = xΓ(x).

(10)

Wegen Γ(1) = 1 folgt aus (10) schließlich induktiv Γ(k + 1) = k! f¨ u r k ∈ N0 .

(11)

407 Integrale u ¨ber Mengen, die keine Quader sind, kann man oft – insbesondere in zwei Dimensionen (n = p = 1) – mit dem folgenden Satz berechnen. 22.11 Satz F¨ ur meßbare M ⊆ N × Rp ⊆ Rn × Rp und beliebige x ∈ N definieren wir Mx := {t ∈ Rp |(x, t) ∈ M }. Dann gilt Z

f (z)dz

2

=

M

vol(M ) =

Z

ZN

dx

n

Z

p

f (x, t)dt

Mx

vol(Mx )dxp .



, (scheibenweise Integration) (Cavalieri’sches Prinzip)

(12) (13)

N

Beweis. Wegen fM (x, t) = 1Mx (t)f (x, t) folgt aus dem Satz von Fubini Z Z n+p f (z)dz = fM (z)dz n+p M Z  Z Z Z n p n = dx dtp 1Mx (t)f (x, t) dt fM (x, t) = dx Z Z  Z  Z n n p p = dx dx f (x, t)dt = f (x, t)dt , Mx

N

da Mx = ∅ f¨ ur x ∈ / N . Also gilt (12), und f¨ ur f = 1 folgt (13).

Mx

⊓ ⊔

⊓ ⊔

22.12 Beispiel. Wir betrachten den Kreis M := {z ∈ R2 |kzk2 ≤ r} vom Radius r. Wegen M ⊆ [−r, r] × R k¨onnen wir n = p = 1, N = [−r, r] setzen. F¨ ur x ∈ [−r, r] ist dann √ √ Mx = {t ∈ R|x2 + t2 ≤ r2 } = [− r2 − x2 , r2 − x2 ], √ vol(Mx ) = 2 r2 − x2 , Z r√ Z √ r2 − x2 dx. vol(M ) = 2 r2 − x2 dx = 2 −r

[−r,r]

Wir substituieren x = −r cos ϕ, dx = r sin ϕdϕ und finden Z π Z π 2 2 2 r sin ϕdϕ = r vol(K) = 2 (1 − cos 2ϕ)dϕ. 0 0 π 1 2 = r (ϕ − 2 sin 2ϕ) = πr2 . 0

Die Fl¨ache eines Kreises mit dem Radius π ist also πr2 . Insbesondere ist π2 = π.

22.13 Proposition Es gelten die Formeln Z n f (x)dx ≤ vol(M )kf kM , M

(14)

408

KAPITEL 22. VOLUMENINTEGRALE Z

n

f (x)dx =

M ∪N

Z

Z

n

f (x)dx +

M n

Z

f (x)dxn

N

−n

f (αx + h)dx = |α|

Z

f (x)dxn

falls M ∩ N Nullmenge,

f¨ ur α ∈ R/{0}, h ∈ Rn .

(15) (16)

Beweis. (14) folgt wegen |f | ≤ kf kM 1M , und (15) wegen fM ∪N = fM + fN − fM ∩N , wobei der Term mit fM ∩N wegen (14) wegf¨allt. (16) folgt aus Proposition 22.1 (2), indem man f durch Funktionen aus Cc (Ω) approximiert. ⊓ ⊓ ⊔ ⊔

22.14 Proposition (i) Das Volumen einer n-dimensionalen (Euklidischen) Kugel vom Radius r ist πn rn . (ii) {x ∈ Rn | kx − x0 k2 = r} ist Nullmenge. Beweis. (i) Sei Br = B[x0 ; r]. Dann ist vol(Br )

= (16)

=

Z

1B[x0 ;r] (x)dxn Z n r 1B[x0 ;r] (rx + x0 )dxn .

Nun ist rx + xo ∈ B[x0 ; r] ⇔ k(rx + x0 ) − x0 k2 ≤ r ⇔ kxk ≤ 1, also ist 1B[x0 ;r] (rx + x0 ) = 1B[0;1] (x), d.h. Z n 1B[0;1] (x)dxn = rn vol(B[0; 1]) = rn πn . vol(Br ) = r (ii) Sei M := {x ∈ Rn | kx − x0 k2 = r}. Wegen Br \Br−ε ↓ M f¨ ur ε → 0 ist vol(M ) = lim vol(Br \Br−ε ) = lim ( vol(Br ) − vol(Br−ε )) ε→0

n

ε→0 n

= lim (πn r − πn (r − ε) ) = πn rn − πn rn = 0 . ⊓ ⊔ ε→0 ⊓ ⊔

Rotationssymmetrische Funktionen lassen sich u ¨ber Kugeln mit dem folgenden Satz integrieren; die wesentliche Beobachtung ist, daß eine solche Funktion nur vom Abstand kxk2 vom Rotationszentrum 0 abh¨angen kann, sich also in der Form g(kxk2 ) schreiben l¨aßt. 22.15 Satz F¨ ur g ∈ C(]0, R[), 0 < R ≤ ∞ gelte Z R |g(r)|rn−1 dr < ∞ . 0

409 Dann ist die durch f (x) := g(kxk2 ) definierte (rotationssymmetrische) Funktion f u ¨ ber die n-dimensionale Kugel B(0; R) integrierbar, und es gilt Z Z R n g(kxk2 )dx = nπn g(r)rn−1 dr . (17) B(0;R)

0

Beweis. Wir nutzen aus, daß f auf d¨ unnen Kugelschalen fast konstant ist. Sei Bt := B[0; t] und ρ ∈ ]0; R[ fest. F¨ ur r ∈ [ρ, R − ε] ist g in Br \Bρ stetig, also existiert Z φ(r) := g(kxk)dxn . (18) Br \Bρ

Wir berechnen die Ableitung von φ. Wegen der Stetigkeit von g gibt es zu jedem ε > 0 ein δ > 0 mit |g(t) − g(r)| ≤ ε f¨ ur |t − r| ≤ δ. F¨ ur jedes s ∈ [r, r + δ] gilt dann Z φ(s) − φ(r) = g(kxk)dxn ZBs \Br Z n = g(r)dx + (g(kxk) − g(r))dxn . Bs \Br

Bs \Br

Das erste Integral hat den Wert g(r) vol(Bs \Br ) ,

und das zweite Integral l¨aßt sich mit (14) absch¨atzen durch vol(Bs \Br ) sup |g(kxk) − g(r)| ≤ vol(Bs \Br )ε . x∈Bs \Br

Nach Proposition 22.14 ist vol(Bs \Br ) = vol Bs − vol Br = πn (sn − rn ). Also ist n n φ(s) − φ(r) s − r sn − r n − g(r)π ε ≤ π n n s−r s−r s−r

f¨ ur s ∈ [r, r + δ], und f¨ ur s ∈ [r − δ, r] bekommt man analog dieselbe Formel. Im Limes ε → 0 (also δ → 0, s → r) findet man φ′ (r) − g(r)πn nrn−1 = 0. Also ist φ′ (r) = πn nrn−1 , (18) und wegen φ(ρ) = 0 ist Z r Z r ′ φ (r)dr = nπn g(r)rn−1 dr . (19) φ(r) = ρ

ρ

Ersetzt man g durch |g| so erh¨alt man aus (18) und (19) Z Z r n |g(kxk)|dx = nπn |g(r)|rn−1 dr. Br \Bρ

ρ

Nach Voraussetzung bleibt die rechte Seite f¨ ur ρ → 0, r → R beschr¨ankt, nach Satz 22.7 existiert also auch Z Z r n g(kxk)dx = nπn g(r)rn−1 dr. BR \B0

0

Da B0 = {0} Nullmenge ist, folgt (17). ⊓ ⊔

Um diesen Satz anwenden zu k¨onnen, brauchen wir noch den Wert von πn .

⊓ ⊔

410

KAPITEL 22. VOLUMENINTEGRALE

22.16 Satz F¨ ur n ∈ N, k ∈ N0 gelten die Formeln Z T e−x x dxn = π n/2 , πn = Γ(k + 1) = k!,

=

√ 1 Γ( ) = π. 2

(22)

2

= nπn

(9)

(21)

e−kxk2 dxn

B(0;∞) Z ∞

=

π n/2 , Γ(n/2 + 1)

k √ Y 1 1 Γ(k + ) = π (j − ), 2 2 j=1

Beweis. Nach Satz 22.15 ist Z Z −xT x n e dx =

(20)

2

e−r rn−1 dr

Z0 ∞ n n πn e−t t 2 −1 dt (Substitution r2 = t) 2 0 n n n πn Γ( ) = πn Γ( + 1). 2 2 2

Nach dem Satz von Fubini ist aber auch Z Z ∞ Z ∞ Z ∞ 2 2 2 −xT x n e dx = dx1 dx2 . . . dxn e−x1 −x2 −...−xn −∞ −∞ Z ∞ Z ∞ Z−∞ ∞ 2 2 2 −x2 −x1 e dx2 . . . dxn e−xn = dx1 e −∞ −∞ −∞ Z ∞ n 2 = dξe−ξ .

(23)

(24)

−∞

F¨ ur n = 2 ergibt sich durch Vergleich der beiden Ausdr¨ ucke Z ∞ 2 (11) −ξ 2 dξe = π2 Γ(2) = π · 1! = π. −∞

Einsetzen in (24) ergibt (20), und Vergleich mit (23) ergibt (21). Da der Einheitskreis√im R1 das ”Volumen” π1 =vol{x ∈ R| |x| ≤ 1} = vol[−1, 1] = 2 hat, folgt aus (21) Γ( 23 ) = π und daraus mit (10) und (11) induktiv die Formel (22). ⊓ ⊓ ⊔ ⊔ Der n¨achste Satz gibt hinreichende Bedingungen f¨ ur die Integrierbarkeit von Funktionen, die unbeschr¨ankten Trager haben oder eine Singularit¨at besitzen. 22.17 Satz (i) Ist f ∈ F (Rn ) lokal integrierbar und ist {kxkα f (x)| x ∈ Rn } f¨ ur ein α > n beschr¨ankt, so ist f integrierbar.

411 (ii) Ist f stetig in Supp(f ) \ {x0 } und gibt es ein α < n mit f (x) = O(kx − x0 k−α )

f¨ ur x → x 0 ,

so ist f lokal integrierbar. Beweis. (i) Sei B := B(0; 1), g(x) = min(1, kxk−α ) und γ = sup kxkα |f (x)|. Dann ist |f (x)| ≤ kxk≥1

γg(x) f¨ ur kxk ≥ 1, also |f | ≤ |fB |+γg, kf k1 ≤ kfB k1 +γkgk1 . Wegen Satz 21.12(iv) gen¨ ugt es also zu zeigen, daß kgk1 endlich ist. g ist stetig und nach Satz 22.15 ist Z Z ∞ n kgk1 = g(x)dx = nπn min(1, r−α )rn−1 dr < ∞ 0

wegen Z

1

r

n−1

0

rn 1 1 dr = = und n 0 n

Z



rn−1−α dr =

1

rn−α ∞ 1 f¨ ur α > n. = n−α 1 n−α

(ii) K ⊆ Rn sei kompakt. Ist x0 ∈ / K, so ist fK stetig in K, also integrierbar. Ist x0 ∈ K, k so setzen wir γ := sup kx − x0 k |f (x)|; nach Vorraussetzung ist γ endlich. Außerdem sei x∈K

g(x) :=

(

kx − x0 k−α f¨ ur kx − x0 k ≤ R, 0 sonst,

mit R := sup kx − x0 k < ∞. F¨ ur Kl := {x ∈ K| kx − x0 k ≥ 2−l }. Ist dann fK = x∈K

0

lim fKl

und |fKl | ≤ γg, also k sup |fKl |k1 ≤ γkgk1 , und wie vorher kgk1 = nπn

Z

0

R

rn−1−α dr =

Rn−α rn−α R = n−α 0 n−α

f¨ ur α < n.

Also ist der Satz u ¨ber majorisierte Konvergenz anwendbar und fK ist integrierbar. ⊓ ⊔ ⊓ ⊔ Das n¨achste Integral spielt in der Wahrscheinlichkeitstheorie und Statistik eine zentrale Rolle (Gauß’sche Normalverteilung). 22.18 Proposition A ∈ Rn×n sei symmetrisch und positiv definit. Dann ist r Z (2π)n − 21 xT Ax n . e dx = det A Beweis.

(25)

412

KAPITEL 22. VOLUMENINTEGRALE

(i) Um die Integrierbarkeit zu zeigen, sch¨atzen wir xT Ax nach unten ab. Eine symmetrische, positiv definite Matrix hat lauter positive Eigenwerte λi ; ist λ > 0 der kleinste Eigenwert, so hat A − λI immer noch nichtnegative Eigenwerte λi − λ, ist also positiv semidefinit. Daher ist 0 ≤ xT (A − λI)x = xT Ax − λxT x, also xT Ax ≥ λxT x = λkxk2 und daher 1 T Ax

e− 2 x

λ

2

≤ e− 2 kxk = O(kxk−n−1 ).

1 T

Also ist kxkn+1 e− 2 x Ax beschr¨ankt. Da jede stetige Funktion lokal integrierbar ist, folgt die Integrierbarkeit aus Satz 22.17(i). (ii) Um den Wert des Integrals zu bestimmen, gehen ur n = 1 ist p αwir induktiv vor. F¨ T 2 A = (α), x Ax = αx , und mit der Substitution y = 2 x ist Z ∞ Z ∞ .r α (20) √ .r α r 2π 2 2 −y x −α e dy e 2 dx = = . = π 2 2 α −∞ −∞ Daher gilt (25) f¨ ur n = 1. Angenommen, (25) gilt mit n − 1 statt n. F¨ ur symmetrisches positiv definites A ∈ Rn×n definieren wir die Untermatrix B := A1:n−1, 1:n−1 , den Vektor b := A1:n−1, n und die Zahl β := Ann . Da eine positiv definite Matrix positive Diagonalelemente besitzt, ist β > 0. Subtraktion geeigneter Vielfacher der letzten Zeile ergibt ! ! ! B b B − β −1 bbT 0 A¯ 0 det A = det = det = det bT β bT β bT β mit A¯ := B − β −1 bbT , und Entwickeln nach der letzten Spalte ergibt dann ¯ det A = β det A. Schreiben wir x¯ := x1:n−1 und ξ = x¯T b/β so ist !   T B b x¯ x ¯ = x¯T B x¯ + (¯ xT b)xn + xn (bT x¯) + βx2n xT Ax = T xn xn b β = x¯T B x¯ − β −1 (bT x¯)(¯ xT b) + β(xn + x¯T b/β)2 ¯x + β(xn + ξ)2 . = x¯T A¯

Nun ist nach dem Satz von Fubini  Z Z ∞ Z ¯x+β(xn +ξ)2 ] − 21 [¯ n xT A¯ − 21 xT Ax e dx = dxn d¯ xn−1 e  Z Z−∞ ∞ 1 T ¯ − β2 (xn +ξ)2 = e xn−1 . dxn e− 2 x¯ A¯x d¯ −∞

Nach Induktionsannahme (und Translationsinvarianz) folgt r r r Z 2π (2π)n−1 (2π)n n − 21 xT Ax = dx = · . e β det A det A¯ Also gilt (25) allgemein. ⊓ ⊔

413 ⊓ ⊔ Das folgende Beispiel soll zur Vorsicht mahnen. 22.19 Beispiel. Wir betrachten M := [1, ∞[2 und die durch f (x1 , x2 ) :=

x1 − x2 (x1 + x2 )3

(26)

definierte stetige Funktion f : M → C. F¨ ur große x wird f (x) beliebig klein und wir hoffen, daß f integrierbar ist. Die hinreichende Bedingung aus Satz 22.17(i) erfordert, daß f (x) = O(kxk−α ) f¨ ur ein α > 2 ist; aus (26) erkennt man leider nur f (x) = O(kxk−2 ). Also versuchen wir, durch direkte Rechnung das Integral zu berechnen.  Z Z ∞ Z ∞ x−y 2 Fubini? f (x)dx = dy dx (x + y)3 1 M 1 ∞ Z ∞ Z ∞ y 1 −dx = =− . dx = 2 2 (x + y) 1 (x + 1) 2 1 1 Andererseits ist

Z

f (x)dx

2 Fubini?

=

M

=

Z

1

Z

1





−x (x + y)2

∞ 1



Z



1

dy =

Z

1

 x−y dx dy (x + y)3



dy 1 = . (1 + y)2 2

Die beiden Integrale sind also nicht vertauschbar, der Satz von Fubini war nicht anwendbar, was best¨atigt, daß f u ¨ber M tats¨achlich nicht integrierbar ist. Um weitere M¨oglichkeiten f¨ ur die Berechnung von Volumenintegralen zu erhalten, ben¨otigen wir eine Verallgemeinerung der Substitutionsregel. Dazu sind einige Vorbereitungen n¨otig. Die folgende Aussage besagt, daß es bis auf einen konstanten Faktor (entsprechend einer Wahl der Einheiten) eigentlich nur ein einziges ”nat¨ urliches” Integral im Rn gibt. 22.20 Satz (Lebesgue) Jedes translationsinvariante monotone lineare Funktional µ auf Cc (Rn ) ist ein Vielfaches von µn . Beweis. Wir betrachten ingendeine Funktion ψ ∈ Cc (Rn ) mit µn (ψ) = 1 und verwenden im folgenden Argument mehrfach die Translationsinvarianz (I) und den Satz von Fubini (F); der letztere ist anwendbar, da stetige Funktionen mit kompaktem Tr¨ager stets integrierbar sind. Es ist Z Z µ(f ) = µ(f )µn (ψ) = dµ(x)f (x) dµn (y)ψ(y) Z Z I = dµ(x)f (x) dµn (y)ψ(y − x)

414

KAPITEL 22. VOLUMENINTEGRALE = F

= I

Z

Z

Z

dµn (y)f (x)ψ(y − x)

dµn (y)

dµ(x)f (x)ψ(y − x)

dµ(x)

Z

Z

Z

dµn (y) dµ(x)f (x + y)ψ(y − (x + y)) Z Z F = dµ(x) dµn (y)f (x + y)ψ(−x) Z Z = dµ(x)ψ(−x) dµn (y)f (x + y) Z Z I = dµ(x)ψ(−x) dµn (y)f (y) Z = γµn (f ), wobei γ = dµ(x)ψ(−x)

=

⊓ ⊔

eine von f unabh¨angige Konstante ist. ⊓ ⊔

22.21 Satz (lineare Substitution) Ist f ∈ L1 (Rn ), so ist f¨ ur nichtsingul¨are A ∈ Rn×n und beliebige b ∈ Rn die Funktion x → f (Ax + b) integrierbar, und es gilt Z Z 1 n f (Ax + b)dx = f (z)dz n . (27) | det A| Merkregel: z = Ax + b ⇒ dz n = | det A|dxn . Beweis. Durch Z µA (f ) := f (Ax)dxn f¨ ur f ∈ Cc (Rn ) wird ein translationsinvariantes monotones lineares Funktional auf Cc (Rn ) definiert, und nach Satz 22.20 ist Z µA (f ) = γA µn (f ) = γA f (x)dxn 1 T x

f¨ ur eine gewisse Konstante γA . Zur Berechnung der Konstanten setzen wir f (x) = e− 2 x ein und erhalten s Z Z 1 T T (2π)n/2 1 (2π)n − 21 xT x n − 2 x A Ax = = e dx = dxn ; µA (f ) = e det(AT A) | det A| | det A|

also ist γA = 1/| det A|. Also gilt (27) f¨ ur b = 0 und f ∈ Cc (Rn ). Durch Translation x → x + A−1 b und Grenzwertbildung folgt der Allgemeinfall. ⊓ ⊓ ⊔ ⊔ Die lineare Substitutionsregel (27) erlaubt schon einige weitere Volumenberechnungen: 22.22 Satz

415 (i) Ist M ⊆ Rn meßbar, und ϕ : Rn → Rn affin, so ist vol(ϕ(M )) = | det ϕ′ | vol(M ). Insbesondere ist das Volumen invariant unter Verschiebungen, Drehungen und Spiegelungen. (ii) Das Volumen eines von den Vektoren x1 , . . . , xn im Rn aufgespannten Parallelotops (oder Parallelepipeds) ( n ) X P (x1 , . . . , xn ) := αl xl | 0 ≤ αl ≤ 1 (l = 1, . . . , n) l=1

ist | det(x1 , . . . , xn )|. (iii) Ist B ⊆ Rn−1 meßbar, so hat der durch   sz Ch (B) := (1 − s)h

 z ∈ B, s ∈ [0, 1]

definierte Kegel (mit Grundfl¨ache B und H¨ohe h) im Rn das Volumen

h n

vol(B).

(iv) Das Volumen eines von den Punkten x0 , . . . , xn ∈ Rn aufgespannten Simplex ) ( n n X X αl xl αl ≥ 0, αl = 1 hx0 , . . . , xn i := l=1

l=1

ist | det(x1 − x0 , . . . , xn − x0 )|/n!.

Beweis. (i) Ist det ϕ′ 6= 0, so ist ϕ′ nichtsingul¨ar und ϕ bijektiv, also Z Z ′ vol ϕ(M ) = 1ϕ(M ) (x)dx = | det ϕ | 1ϕ(M ) (ϕ(x))dx Z ′ = | det ϕ | 1M (x)dx = | det ϕ′ | vol(M ). Der Fall det ϕ = 0 ergibt sich durch Stetigkeitsargumente. P (ii) Aus P (x1 , . . . , xn ) = ϕ(Q[0, 1]) mit ϕ(α) := αl xl und ϕ′ = (x1 , . . . , xn ) folgt die Behauptung mit (i). (iii) nach Cavalieri. (iv) F¨ ur x0 = 0, x1 = e(1) , . . . , xn = e(n) aus (iii) durch Induktion; wegen hx0 ,!. . . , xn i = n n X X X (1) (n) ϕ(h0, e , . . . , e i) mit ϕ(α) := αl (xl − x0 ) = αl xl f¨ ur α0 = 1 − αl folgt der l=1

Allgemeinfall aus (i).

⊓ ⊔

l=0

l>0

416

KAPITEL 22. VOLUMENINTEGRALE ⊓ ⊔

22.23 Satz (Substitutionsregel) M ⊆ Rn sei offen und ϕ ∈ C 1 (M, Rn ) sei injektiv. Ist f u ¨ ber ϕ(M ) integrierbar, so ist Z Z n f (z)dz = f (ϕ(x))| det ϕ′ (x)|dxn . ϕ(M )

M

Merkregel: z = ϕ(x) ⇒ dz n = | det ϕ′ (x)|dxn . Beweis. etwas technisch; der Satz folgt aus dem linearen Spezialfall (Satz 22.21) durch st¨ uckweise lineare Approximation von ϕ mit Hilfe einer geeigneten (mehrdimensionalen) Teilung der Eins. F¨ ur Details siehe Forster III, §2, Satz 3. ⊓ ⊓ ⊔ ⊔

22.24 Beispiel. (Polarkoordinaten) Sei M =]0, ∞[×[0, 2π[, ϕ(r, ϕ) = ′

ϕ (z) =



r cos ϕ r sin ϕ



. F¨ ur z =

 − r sin ϕ , r cos ϕ

cos ϕ sin ϕ

r ϕ



ist

det ϕ′ (z) = r cos2 ϕ + r sin2 ϕ = r,

also ist Z

f (z)dz

2

= Fubini

=

Z

f (r cos ϕ, r sin ϕ)rdz 2  ZM∞ Z 2π f (r cos ϕ, r sin ϕ)dϕ rdr. 0

0

¨ahnlich arbeitet man mit r¨aumlichen Polarkoordinaten und mit anderen krummlinigen Koordinatensystemen. Als letztes verallgemeinern wir die Formel f¨ ur die partielle Integration auf Volumenintegrale. 22.25 Satz Seien f, g ∈ C 1 (Rn ), h ∈ Rn . (i) Ist ∇h f integrierbar, so ist

Z

∇h f (x)dxn = 0.

(ii) (partielle Integration) Sind (∇h f )g und f (∇h g) integrierbar, so ist Z Z n (∇h f (x))g(x)dx = − f (x)(∇h g(x))dxn . Beweis.

417 (i) Wegen ∇h =

n X k=1

hk ∇k gen¨ ugt es, zu zeigen, daß

Z

∇k f (x)dxn = 0 ist, und durch eine

lineare Transformation kann man o.B.d.A. erreichen, daß k = n ist. Nach dem Satz von Fubini ist dann Z Z ∞ Z ∞ ∂ n ∇n f (x)dx = dx1 · · · dxn f (x1 , · · · , xn ) = 0 ∂xn −∞ −∞ wegen

Z



dxn

−∞

∂ f (x1 , · · · , xn ) = f (x1 , · · · , xn ) ∞ −∞ = 0, ∂xn

da integrierbare Funktionen f¨ ur kxk → ∞ beliebig klein werden.

(ii) folgt aus (i) mit f g statt f , wegen ∇h (f g) = (∇h f )g + f (∇h g).

⊓ ⊔ ⊓ ⊔

R Folgerung M ⊆ Rn sei offen. F¨ ur Vektorfelder F ∈ C 1 (M , Rn ) h¨angt das Integral M ∇ · F (x)dxn nur von den Werten von F (und eventuell F ′ ) auf ∂M ab. Beweis. Stimmen F, G ∈ C 1 (M , Rn ) und F ′ , G′ auf ∂M u ¨berein, so ist die Funktion F − G auf ∂M samt ihrer Ableitung Null. Durch ( F (x) − G(x) f¨ ur x ∈ M, H(x) := 0 f¨ ur x ∈ /M wird daher eine stetig differenzierbare Funktion H : Rn → Rn definiert. Nach Satz 22.25(i) ist Z Z Z n n ∇ · F (x)dx − ∇ · G(x)dx = ∇ · (F (x) − G(x))dxn M M ZM n Z X n = ∇ · H(x)dx = ∇k Hk (x)dxn = 0, k=1

also

Z

M

∇ · F (x)dxn =

R

M

∇ · G(x)dxn .

⊓ ⊔

⊓ ⊔

In den interessantesten F¨allen (st¨ uckweise glatter Rand) h¨angt das Integral nur von den Werten von F auf ∂M ab und wird dort durch ein Oberfl¨achenintegral gegeben; das ist der Gauß‘sche Integralsatz.

418

KAPITEL 22. VOLUMENINTEGRALE

Kapitel 23 Fl¨ achen und Fl¨ achenintegrale In diesem Kapitel behandeln wir die mathematische Beschreibung von p-dimensionalen Fl¨achen im Rn durch implizite Funktionen bzw. Zwangsbedingungen und durch Karten bzw. krummlinige Koordinatensysteme. Wir zeigen, wie man eine Funktion auf einer Fl¨ache minimiert und wie man sie u ¨ber eine Fl¨ache integriert, beweisen die wichtigen Integrals¨atze von Gauß und Stokes, und geben mit dem Abbildungsgrad ein wichtiges topologisches Werkzeug zum Nachweis der L’osbarkeit von Gleichungssystemen. Vertieft werden die hier behandelten Begriffe in Vorlesungen u ¨ber Differentialgeometrie und -topologie. 23.1 Beispiel. Im R3 l¨aßt sich eine Kugeloberfl¨ache vom Radius r auf verschiedene Weise darstellen, als Ω = {x ∈ R3 | x21 + x22 + x23 = r2 } (1) oder als

  

   r sin θ cos φ    Ω = x =  r sin θ sin φ  θ ∈ [0, π], φ ∈ [0, 2π[ .     r cos θ 

(2)

(1) ist eine implizite Darstellung durch Zwangsbedingungen, (2) eine explizite Parameterdarstellung durch Kugelkoordinaten (= r¨aumliche Polarkoordinaten). F¨ ur konstantes φ und θ ∈ [0, π] erh¨alt man die L¨angenkreise, f¨ ur konstantes θ und φ ∈ [0, 2π[ die Breitenkreise, und hat damit ein krummliniges Koordinatensystem auf der Kugeloberfl¨ache. Allerdings sind die Koordinaten z = (θ, φ)T f¨ ur Nord- und S¨ udpol, x = (0, 0, ±r)T nicht eindeutig bestimmt (θ = 0 bzw. π; φ beliebig). Wir k¨onnen auf einem St¨ uck Papier (∼ = R2 ) eine Karte der Gr¨oße U = [0, π] × [0, 2π[ zeichnen, in dem gewissen Punkten z = (θ, φ)T ∈ U die Namen zugeh¨origer Punkte x ∈ Ω zugeordnet sind (z.B. ”Wien”, ”Berlin”, ”New York”, wenn man sich Ω als Erdoberfl¨ache denkt), entsprechend der Abbildung Φ : U → Ω mit   r sin θ cos φ   Φ(θ, φ) =  r sin θ sin φ  . r cos θ

Wir legen den Begriff der Karte nun mathematisch fest, verlangen dabei die eindeutige Aufl¨osbarkeit, lassen außerdem den Rand der Karte unbeschriftet und erlauben wie in 419

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

420

einem Atlas, daß einzelne Karten nur einen Teil der Fl¨ache beschreiben. Dabei beschr¨anken wir uns der Einfachheit halber auf die Behandlung glatter Fl¨achen (ohne Knicke). 23.2 Definition (i) Eine (glatte) p-Karte ist eine injektive Abbildung Φ ∈ C 1 (U, Rn ) mit U ⊆ Rp offen und rank Φ′ (z) = p f¨ ur alle z ∈ U. (3) Ein p-Fl¨ achenstu ¨ ck ist das Bild Φ(U ) einer p-Karte Φ : U → Rn . (ii) Eine Menge Ω ⊆ Rn heißt p-Fl¨ ache oder p-dimensionale Mannigfaltigkeit, falls es eine Familie von p-Karten Φl : Ul → Rn (l ∈ L) gibt mit Ω=

[

Φl (Ul ).

(4)

l∈L

Die Menge {Φl | l ∈ L} heißt dann ein Atlas f¨ ur Ω, und jede p-Karte Φ mit Φ(U ) ⊆ Ω heißt eine Karte von Ω. 23.3 Bemerkungen. (i) Offensichtlich muss p ≤ n gelten. Bedingung (3) garantiert die lineare Unabh¨angigkeit der p Tangentialrichtungen entlang den Koordinatenlinien, sorgt also daf¨ ur, daß die Fl¨ache wirklich p-dimensional ist. Bedingung (4) erlaubt es, Eigenschaften der Fl¨ache auf einzelnen Karten zu studieren und hinterher zusammenzusetzen. Dieselbe Fl¨ache kann durch viele verschiedene Atlanten beschrieben werden; die geometrischen Eigenschaften m¨ ussen sich als davon unabh¨angig erweisen. (ii) Oft wird statt Φ auch die Umkehrabbildung Φ−1 : Φ(U ) → Rp als Karte bezeichnet; da Φ−1 aber Punkte der Fl¨ache mit Koordinaten markiert, ist die Bezeichnung Koordinatensystem f¨ ur Φ−1 angemessener. Um zu sehen, unter welchen Voraussetzungen Zwangsbedingungen p-Fl¨achen definieren, brauchen wir 23.4 Satz (u ¨ ber implizite Funktionen) (i) F ∈ F(Rn × Rp , Rn ) sei stetig in einer Umgebung B eines Punktes (x0 , z0 ) ∈ Rn × Rp mit F (x0 , z0 ) = 0. Ist F in dieser Umgebung nach den ersten n Variablen stetig differenzierbar und ist die partielle Ableitung Fx (x0 , z0 ) nichtsingul¨ar, so gibt es Umgebungen D von x0 und U von z0 mit D×U ⊆ B derart, daß die Gleichung F (x, z) = 0 f¨ ur alle z ∈ U genau eine L¨osung x = Φ(z) ∈ D hat. Die dadurch definierte Abbildung Φ : U → Rn ist stetig. (ii) Ist f bez. allen Variablen stetig differenzierbar, so ist Φ (in einer geeigneten Umgebung U ) stetig differenzierbar, und es gilt Φ′ (z) = −Fx (Φ(z), z)−1 Fz (Φ(z), z).

(5)

421 Beweis. (i) Wir wenden Satz 13.29 mit q = 12 , C = Fx (x0 z0 )−1 und F (x, z) statt F (x) an. Die Bedingungen (13.25) und (13.26) werden zu kI − Fx (x0 , z0 )−1 Fx (x, z)k ≤

1 2

f¨ ur kx − x0 k < r,

(6)

r kFx (x0 , z0 )−1 (F (x0 , z) − F (x0 , z0 )) k < . (7) 2 Wegen der Stetigkeit von Fx ist (6) f¨ ur kleine r und kleine kz − z0 k ≤ r¯ erf¨ ullt, und durch Verkleinern von r¯ kann man wegen der Stetigkeit von F auch (7) erreichen. Mit D = B(x0 ; r) und U = B(z0 ; r¯) hat also die Gleichung F (x, z) = 0 f¨ ur alle z ∈ U genau eine L¨osung x ∈ D, die wir mit x = Φ(z) bezeichnen.

Um die Stetigkeit zu zeigen, nehmen wir eine beliebige Folge zl in U mit Grenzwert z¯ ∈ U , und wenden den Satz noch einmal mit x¯ = Φ(¯ x) statt x0 und F (x, zl ) statt F (x) an. Wieder sind (13.25) und (13.26) erf¨ ullbar, und da wir die Nullstelle x∗ = Φ(zl ) von F ( , zl ) schon kennen, erhalten wir aus (13.27) die Absch¨atzung

·

kΦ(zl ) − Φ(¯ z )k ≤ 2εl ,

εl = kFx (¯ x, z¯)−1 F (¯ x, zl )k → 0,

woraus die Stetigkeit in Φ folgt. (ii) Ist F nach z stetig differenzierbar, so ist 0 = F (Φ(z + h), z + h) = F (Φ(z + h), z) + Fz (Φ(z + h), z)h + o(h), also F (Φ(z + h), z) = −Fz (Φ(z + h), z) h + o(h).

(8)

·

F¨ ur festes z ist G = F ( , z) stetig differenzierbar, und wegen G (Φ(z)) = F (Φ(z), z) = 0 ist F (Φ(z + h), z) = G (Φ(z + h)) − G (Φ(z)) (9) = G[Φ(z + h), Φ(z)] (Φ(z + h) − Φ(z)) .

F¨ ur h → 0 strebt G[Φ(z + h), Φ(z)] gegen G′ (Φ(z)) = Fx (Φ(z), z), und wegen der Stetigkeit von Fx und Φ ist det Fx (Φ(z), z) 6= 0 f¨ ur z in einer Umgebung von z0 , da dies f¨ ur z = z0 gilt. Daher ist auch det G[Φ(z + h), Φ(z)] 6= 0 f¨ ur kleine h, und wir erhalten aus (9) and (8) die Beziehung Φ(z + h) − Φ(z) = G[Φ(z + h), Φ(z)]−1 F (Φ(z + h), z) = −G[Φ(z + h), Φ(z)]−1 Fz (Φ(z + h), z) + o(h) = −Fx (Φ(z), z)−1 Fz (Φ(z), z)h + o(h). Nach Definition der Ableitung gilt also (5) und Φ ist stetig differenzierbar. ⊓ ⊔

⊓ ⊔

Als Anwendung folgt, daß man in der Regel (n¨amlich bei Bestehen einer Rangbedingung f¨ ur die Ableitung) bei m < n Gleichungen die n Unbekannten so aufl¨osen kann, daß gerade p = n − m Parameter frei gew¨ahlt werden k¨onnen, die L¨osungen also eine durch diese Variablen parametrisierte p-Fl¨ache bilden.

422

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

23.5 Satz D ⊆ Rn sei offen, und F : D → Rn−p sei stetig differenzierbar. Ist Ω := {x ∈ D | F (x) = 0}

(10)

nichtleer und gilt rank F ′ (x) = n − p f¨ ur alle x ∈ Ω, so ist Ω eine p-Fl¨ache. Beweis. An jedem Punkt x ∈ Ω kann man n − p linear unabh¨angige Spalten von F ′ (x) ausw¨ahlen. F ′ (x), eingeschr¨ankt auf diese Spalten, ist dann nichtsingul¨ar. Bezeichnet man die zu den u ¨brigen Spalten geh¨origen Variablen mit z, so ist der Satz u ¨ber implizite Funktionen anwendbar und liefert eine Karte f¨ ur eine Umgebung von x. ⊓ ⊓ ⊔ ⊔ Ist die Bewegung eines mechanischen Systems mit Potential V (x) durch Zwangsbedingungen auf eine Fl¨ache (10) im Zustandsraum eingeschr¨ankt, so kann das Potential nur auf dieser Fl¨ache variieren. Im stabilen Gleichgewicht nimmt das Potential daher nicht seinen kleinsten Wert u ¨ber ganz Rn , sondern nur u ¨ber der Fl¨ache (10) an. In diesem Fall braucht der Gradient ∇V (x) (d.h. die vom Potential ausge¨ ubte Kraft) daher nicht Null zu werden, sondern wird sich auf einen Wert senkrecht zur Fl¨ache einstellen. Bei einer durch (10) gegebenen Fl¨ache ist die Normale in x, das heißt der zur Fl¨ache in x orthogonale Unterraum, gerade von den Spalten von F ′ (x)T aufgespannt, besteht also aus allen Spaltenvektoren der Form F ′ (x)T λ, wobei λ ∈ Rn−p ein Koeffizientenvektor ist, den man den Lagrange-Multiplikator nennt. Vor einem Beweis dieser geometrischen Aussage machen wir uns dies am Beispiel einer Hyperebene Ω = {x ∈ Rn | cT x = γ} klar. Hier ist F (x) = cT x − γ und F ′ (x) = cT ist die Richtung der Normalen zur Hyperebene. Die algebraische Seite des Sachverhalts ist zum praktischen Rechnen wichtig und soll daher zuerst bewiesen werden: 23.6 Satz (u ¨ ber Extrema mit Nebenbedingungen) D ⊆ Rn sei offen und f ∈ C 1 (D), F ∈ C 1 (D, Rm ). Hat f in x0 ∈ D ein lokales Minimum (bzw. Maximum) u ¨ ber Ω := {x ∈ D|F (x) = 0} und hat F ′ (x0 ) den Rang m, so gibt es einen Vektor λ0 ∈ Rm derart, daß (x0 , λ0 ) ein station¨arer Punkt der durch L(x, λ) := f (x) − λT F (x)

(11)

definierten Lagrange-Funktion L : D × Rm → R ist. Beweis. F ′ (x0 ) ist eine m × n-Matrix vom Rang m, also ist n ≥ m. Durch evtl. Vertauschen der Spalten von F ′ (x0 ) und der entsprechenden Komponenten von x0 k¨onnen wir erreichen, daß die ersten m Spalten von F ′ (x0 ) linear unabh¨angig sind. Wir k¨onnen also F ′ (x0 ) = (A, B),

f ′ (x0 ) = (aT , bT )

mit Matrizen A ∈ Rm×m , B ∈ Rm×(n−m) , A nichtsingul¨ar und Vektoren a ∈ Rm , b ∈ Rn−m schreiben. Mit y := x1:m , z := xm+1:n und G(y, z) := F (x) ist dann G(y0 , z0 ) =

423 F (x0 ) = 0, Gy (y0 , z0 ) = A nichtsingul¨ar und Gz (y0 , z0 ) = B. Daher l¨aßt sich die Gleichung G(y, z) = 0 nach dem Satz u ugend kleinen ε-Umgebung ¨ber implizite Funktionen in einer gen¨ von z0 eindeutig nach y = Φ(z) aufl¨osen, derart, daß eine stetig differenzierbare Funktion Φ : B(z0 ; ε) → Rm mit Φ(z0 ) = y0 und Φ′ (z0 ) = −A−1 B entsteht. In einer Umgebung von x0 haben daher alle L¨osungen von F (x) = 0 die Form x = x(z) =

Φ(z) z

!

.

Die Voraussetzung des Satzes besagt also, daß die Funktion f ◦ x ein lokales Extremum in z0 hat, d.h. es gilt ! Φ′ (z0 ) ′ ′ ′ T T 0 = (f ◦ x) (z0 ) = f (x0 )x (z0 ) = (a , b ) I = aT Φ′ (z0 ) + bT = −aT A−1 B + bT . Mit der Abk¨ urzung λT0 := aT A−1 ist nun ∂ L(x, λ) = f ′ (x0 ) − λT0 F ′ (x0 ) = (aT , bT ) − aT A−1 (A, B) ∂x (x0 ,λ0 ) = (aT , bT ) − (aT , aT A−1 B) = (0, bT − aT A−1 B) = (0, 0) = 0, ∂ L(x, λ) ∂λ (x0 ,λ0 ) = 0 − F (x0 ) = 0 − 0 = 0. Also ist L′ (x0 , λ0 ) = 0, d.h. (x0 , λ0 ) ist station¨arer Punkt von L. ⊓ ⊔

⊓ ⊔

23.7 Bemerkungen. (i) F¨ ur x ∈ Ω ist L(x, λ) = f (x). (ii) Ist F (x) 6= 0 f¨ ur ein x ∈ D, so ist die Lagrange-Funktion nach oben und unten unbeschr¨ankt. (x0 , λ0 ) ist also weder Maximum noch Minimum von L, sondern ein Sattelpunkt. (iii) Allgemein ergeben sich aus gungen

∂ L(x, λ) ∂x

= 0 und

∂ L(x, λ) ∂λ

= 0 die Optimalit¨atsbedin-

F ′ (x)T = ∇f (x), F (x) = 0, und die erste der beiden Beziehungen verifiziert die oben gemachte algebraische Aussage. F¨ ur die geometrische Deutung siehe Proposition 23.11. Pn 2 23.8 Beispiel. Wir Pnwollen das Minimum der Quadratsumme f (x) := i=1 xi bestimmen, wenn die Summe i=1 xi = s bekannt ist. Die Nebenbedingung hat also die Form F (x) =

424

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

Pn

xi − s = 0. Da hier m = 1 ist, ist der Lagrange-Multiplikator λ einfach eine Zahl, und die Lagrange-Funktion ist i=1

L(x, λ) = f (x) − λF (x) =

n X i=1

x2i − λ

n X i=1

 xi − s .

Am Minimum ist 0 = ∂x∂ i L(x, λ) = 2xi − λ, also xi = λ2 (i = 1, . . . , n). Der LagrangeMultiplikator berechnet sich durch Einsetzen in die Nebenbedingung F (x) = 0, also s=

n X i=1

λ xi = n , 2

zu λ = 2s/n, so daß sich die L¨osung xi =

s (i = 1, . . . , n) n

(12)

ergibt. Wir wollen noch nachpr¨ ufen, daß wir wirklich das globale Minimum gefunden haben. Dazu berechnen wir:   s 2  X s 2 X 2 s 0 ≤ xi − xi − 2 xi + = n n n  s 2   X X X X X 2 s s s s2 = x2i − 2 xi + 1= x2i − 2 s + n= x2i − ; n n n n n also ist

s2 , (13) n P 2 und diese untere Schranke ist gerade der Wert von xi , wenn alle xi = ns sind. Die Quadratsumme ist also am kleinsten, wenn alle xi gleich groß sind und daher den n-ten Teil der Summe betragen. Man kann u ¨brigens die Ungleichung (13) auch aus der Cauchy-Schwarz’schen Ungleichung erhalten. Mit dem Vektor e = (1, . . . , 1)T ist n¨amlich X X x2i = xT x, s= xi = eT x, X

x2i ≥

also

s2 = |eT x|2 ≤ (kek2 kxk2 )2 = eT e · xT x = n

X

x2i .

Auf ¨ahnliche Weise kann man Ungleichungen als Nebenbedingungen ber¨ ucksichtigen. F¨ ur den wesentlich aufwendigeren Beweis des folgenden Satzes verweisen wir auf Fletcher [?]. 23.9 Satz (Karush-Kuhn-Tucker) D ⊆ Rn sei offen und f ∈ C 1 (D), F ∈ C 1 (D, Rm ), I eine Teilmenge von {1, . . . , m}. Hat f in x0 ∈ D ein lokales Minimum (bzw. Maximum) u ¨ ber Ω := {x ∈ D | Fi (x) = 0 f¨ ur i ∈ I, Fi (x) ≥ 0 f¨ ur i ∈ / I}

425 und hat F ′ (x0 ) den Rang m, so gibt es einen Vektor λ0 ∈ Rm derart, daß (x0 , λ0 ) ein station¨arer Punkt der durch L(x, λ) := f (x) − λT F (x)

(14)

definierten Lagrange-Funktion L : D × Rm → R ist und die Komplementarit¨atsbedingungen Fi (x) = 0 f¨ ur i ∈ I, min(Fi (x), λi ) = 0 f¨ ur i ∈ /I gelten.

⊓ ⊔

Aus historischen Gr¨ unden wird eine konkrete Optimierungsaufgabe mit Nebenbedingungen auch ein lineares bzw. nichtlineares Programm genannt, je nachdem ob die Zielfunktion f (x) und die Nebenbedingungen Fi (x) = 0(≥ 0) linear sind oder nicht. Die praktische Bestimmung der L¨osung komplizierterer Optimierungsaufgaben wird in Vorlesungen u ¨ber Optimierung (oder lineare/nichtlineare Programmierung) behandelt. Wir kehren nun zur Behandlung von Fl¨achen zur¨ uck und formalisieren zun¨achst einfache geometrische Sachverhalte. 23.10 Definition (i) Der Tangentenialraum Tx Ω einer p-Fl¨ache Ω ⊆ Rn im Punkt x ∈ Ω besteht aus allen Vektoren v ∈ Rn , f¨ ur die es einen C 1 -Weg w : [α, ω] → Ω mit w(α) = x ′ und w (α) = v gibt. Ein senkrecht auf allen v ∈ Tx Ω stehender Vektor w ∈ Rn \ {0} heißt ein Normalenvektor von Ω im Punkt x. (ii) Die p × p-Matrix Gl (z) = Φ′l (z)T Φ′l (z) heißt der zur Karte Φl : Ul → Ω geh¨orige metrische Tensor. Seine Determinante wird mit gl (z) := det Gl (z) bezeichnet. 23.11 Proposition (i) Ist Φ : U → Ω eine Karte der p-Fl¨ache Ω, z ∈ U und x = Φ(z), so ist die Ableitung Φ′ (z) eine bijektive lineare Abbildung von Rp nach Tx Ω. Insbesondere ist Tx Ω ein p-dimensionaler Vektorraum. (ii) Unter den Voraussetzungen von Satz 23.5 ist Tx Ω = Ker F ′ (x), und die Spalten von F ′ (x)T sind Normalenvektoren. Beweis. (i) Ist v ∈ Tx Ω, so gibt es einen C 1 -Weg w : [α, ω] → Ω mit w(α) = x und w′ (α) = v. Nun ist w0 = Φ−1 ◦ w ein C 1 -Weg in U mit w0 (α) = Φ−1 (w(α)) = Φ−1 (x) = z, und aus w(t) = Φ(w0 (t)) ergibt sich v = w′ (α) = Φ′ (w0 (α))w˙ 0 (α) = Φ′ (z)w˙ 0 (α) ∈ Range Φ′ (z). Ist umgekehrt v ∈ Range Φ′ (z), so ist v = Φ′ (z)h f¨ ur ein h ∈ Rp . Da U offen ist, ist f¨ ur p 1 gen¨ ugend kleine h ∈ R durch w(t) = Φ(z + th) f¨ ur t ∈ [0, 1] ein C -Weg w : [0, 1] → Ω gegeben, und es ist w(0) ˙ = Φ′ (z)h = v, also v ∈ Tx Ω. Daher ist Tx Ω = Range Φ′ (z) ein Vektorraum der Dimension rank Φ(z) = p, und als surjektive Abbildung zwischen Vektorr¨aumen der Dimension p ist Φ′ (z) bijektiv.

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

426

(ii) Wir w¨ahlen eine Karte Φ wie in (i), und haben F (Φ(z)) = 0 f¨ ur alle z ∈ U . Ableiten ergibt 0 = F ′ (Φ(z)) Φ′ (z) = F ′ (x)Φ′ (z). F¨ ur jedes v = Φ′ (z)h ∈ Tx Ω ist daher

F ′ (x)v = F ′ (x)Φ′ (z)h = 0,

(15)

also v ∈ Ker F ′ (x). Daher ist Tx Ω in Ker F ′ (x) enthalten, und wegen dim Ker F ′ (x) = n − rank F ′ (x) = p = dim Tx Ω

ist sogar Tx Ω = Ker F ′ (x).

Aus (15) folgt außerdem f¨ ur die Spalten w = F ′ (x)T ei von F ′ (x)T die Beziehung wT v = eTi F ′ (x)v = 0 f¨ ur alle v ∈ Tx Ω, also sind die Spalten von F ′ (x) Normalenvektoren von Ω im Punkt x. ⊓ ⊔ ⊔ ⊓ Die Tangentialebene erh¨alt man durch Translation des Tangentialraumes, indem man den Nullpunkt nach x verschiebt; sie ist also eine p-dimensionale affine Menge und kann in der Form x + Tx Ω geschrieben werden. Tangentialebenen machen nur f¨ ur in einen Vektorraum eingebetteten Fl¨achen Sinn, w¨ahrend (wie in der Differentialgeometrie gezeigt wird) Tangentialr¨aume f¨ ur abstrakte Fl¨achen unabh¨angig von einer Einbettung definiert werden k¨onnen. Das ist insbesondere in der Relativit¨atstheorie von Bedeutung, wo die Raumzeit durch eine 4-dimensionale abstrakte Fl¨ache beschrieben wird. Als Produkt einer reellen Matrix mit seiner Transponierten ist der metrische Tensor Gl (z) stets positiv semidefinit (Proposition 18.32(iv)); Gl (z) ist sogar positiv definit, da seine Determinante gl (z) nach Proposition 9.20 positiv ist. Die Definitheit des metrischen Tensors charakterisiert sogen. Riemannsche Geometrien. Die gekr¨ ummten R¨aume der allgemeinen Relativit¨atstheorie haben dagegen einen metrischen Tensor mit einem negativen Eigenwert und daher einer Determinante gl (z) < 0; sie lassen sich daher nicht in einen Euklidischen Raum einbetten. Der Name f¨ ur den metrischen Tensor erkl¨art sich durch sein Auftreten bei der L¨angenmessung von Kurven. Ist x : [α, ω] → Ω ein C 1 -Weg und z = Φ−1 ◦ x der zugeh¨orige Weg auf der Karte Φl , so ist x(t) = Φ(z(t)), also x(t) ˙ = Φ′l (z(t))z(t) ˙ und daher q √ p kxk ˙ 2 = x˙ T x˙ = z˙ T Φ′l (z)T Φ′l (z)z˙ = z˙ T Gl (z)z. ˙

F¨ ur das skalare Kurvenintegral u ¨ber die durch x(t) beschriebene Kurve Γ ergibt sich Z Z ω Z ω p f (x)kdxk2 = f (x(t))kx(t)k ˙ f (Φl (z)) z˙ T Gl (z)zdt. ˙ 2 dt = Γ

α

α

Insbesondere erh¨alt man f¨ ur die L¨ange von Γ den Ausdruck Z ωp Z z˙ T Gl (z)zdt. ˙ kdxk2 = Γ

α

Bei der Fl¨achenberechnung kommt dann die Determinante gl (z) ins Spiel, wie wir bald sehen werden.

427 23.12 Definition Ein Atlas {Φl |l ∈ L} f¨ ur Ω heißt orientiert, falls det Φ′k (zk )−1 Φ′l (zl ) > 0

(16)

f¨ ur jeden Punkt x = Φk (zk ) = Φl (zl ) im Durchschnitt des Bildes zweier beliebiger Karten Φk und Φl . Eine p-Fl¨ache heißt orientiert, wenn sie mit einem orientierten Atlas versehen ist. Ω

Ul

Uk

..................... ............................. ..... ........ ..... ...... .... ..... ......................................... ... ..... ... .... ..... ....... .. ... ... ... . ... .... .... ...... k . . . . . ... ... .............................................................. . . .. l . . . . . . . . . . . . . . . .... . . . . . . . . .................................................................................................................................... . .. .. .......................................................................................... ....... .... ... ... . .. .... ... ... .. . ... ... .. ... k . . .. ... ... . ... ... ... l . .. . . . . ......... . ...... . ... ... .. . . . . . . . . . . . . . . . . ..... . . ............... ............... ..... . ..... ...... ....... ..... ........................... .........................



Φ

Φ

·

·

z

x

R..p..............................................′................................................................................. Tx Ω ..................................................................′..............................................................R. p ... ..... Φl (zl ) Φk (zk ) ... .............. .. . ..

.

... ... ..... ..... ..... .... ..... ..... ...... ..... . . ...... . . ....... ...... ....... ....... ........ ........ ......... ......... .......... ......... . . . . . ............ . . . . . ....... ................ ................ ........................... ..................................................................

Man beachte, daß zk und zl durch x eindeutig festgelegt sind und Φ′k (zk )−1 Φ′l (zl ) nach der Proposition eine bijektive lineare Abbildung von Rp in sich, also eine nichtsingul¨are p × p-Matrix ist. Das positive Vorzeichen der Determinante bedeutet, daß die zu den beiden Karten geh¨origen krummlinigen Koordinatensysteme im Punkt x gleich orientiert sind. In R3 bedeutet die Orientierung f¨ ur p = 1 (Kurven) die Auszeichnung einer Durchlaufrichtung (vorw¨arts/r¨ uckw¨arts), f¨ ur p = 2 (Fl¨achen) die Auszeichnung einer Ober- bzw. Unterseite (oder Außen- bzw. Innenseite), und f¨ ur p = 3 die Auszeichnung eines rechtsh¨andigen bzw. linksh¨andigen Koordinatensystems. Es ist bemerkenswert, daß es im Unterschied zu den stets orientierten Kurven nichtorientierbare Fl¨achen (z. B. das bekannte M¨obiusband) gibt. Jedoch sind alle Fl¨achenst¨ ucke orientierbar, da hier ein Atlas mit einer einzigen Karte ausreicht und die Bedingung (16) f¨ ur k = l wegen det I = 1 stets erf¨ ullt ist. Insbesondere sind alle offenen Mengen Ω ⊆ Rn orientierbare n-Fl¨achen, mit der Identit¨at als Karte. 23.13 Beispiel. Sei f ∈ C 1 (Rn ), die Menge Ω := {x ∈ Rn |f (x) < 0}

(17)

∇f (x) 6= 0 f¨ ur alle x ∈ / Ω.

(18)

sei nicht leer, und es sei Wir illustrieren diese Annahme mit dem konkreten Fall f (x) = (x − x0 )T (x − x0 ) − r2 ,

∇f (x) = 2(x − x0 ),

(19)

wo Ω = B(x0 ; r) in (17) eine offene Kugel ist. Allgemein folgt aus der Stetigkeit von f und (17), daß Ω offen, also eine n-Fl¨ache, ist. Ist x ∈ ∂Ω, so muß jede Umgebung von x Punkte x1 , x2 mit f (x1 ) < 0, f (x2 ) ≥ 0 enthalten,

428

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

wegen der Stetigkeit von f ist also f (x) = 0. Umgekehrt folgt aus f (x) = 0 f¨ ur w = ∇f (x) wegen f (x ± εw) = f (x) ± εf ′ (x)w + o(ε) = ±ε(|w|2 + o(1)),

daß f¨ ur kleine ε stets x − εw ∈ Ω und x + εw ∈ / Ω ist. (Hier wird (18) gebraucht!) Daher liegt x ∈ ∂Ω, es ist also ∂Ω = {x ∈ Rn |f (x) = 0}. (20) Wegen Satz 23.5 und (18) ist ∂Ω eine (n − 1)-Fl¨ache, und wegen Proposition 23.11(ii) ist w = ∇f (x) ein Normalenvektor von ∂Ω im Punkt x, der nach den ebengemachten Bemerkungen nach außen (aus Ω heraus) zeigt. Der normierten Vektor ν(x) := ∇f (x)/k∇f (x)k2

(21)

mit derselben Orientierung heißt der ¨außere Normalenvektor von ∂Ω in x. Nach der Proposition ist jeder Normalenvektor in x parallel zu ν(x) und die Tangential(hyper)ebene steht senkrecht auf ν(x). Im Beispiel (19) folgt insbesondere, daß der Rand der offenen Kugel B(x0 ; r) aus allen Punkten mit f (x) = 0, d.h. mit |x − x0 | = r besteht, und daß der ¨außere Normalenvektor im Randpunkt x durch ν(x) = 1r (x − x0 ) gegeben ist. ν(x) ist also ein Einheitsvektor in Richtung der Verbindungslinie vom Mittelpunkt zu x. Um Integrale auf Fl¨achen zu definieren, benutzen wir einen wichtigen Trick mit einer Teilung der Eins, der uns erlaubt, den Allgemeinfall auf den Fall einer einzigen Karte zur¨ uckzuf¨ uhren. 23.14 Proposition (Teilung der Eins) Aus jedem Atlas einer p-Fl¨ache Ω ⊆ Rn lassen sich zu einer kompakten Menge D ⊆ Ω endlich viele Karten Φl : Ul → Ω und nichtnegative Funktionen el ∈ C ∞ (Rn , [0, 1]) mit Supp el ⊆ Ul so ausw¨ahlen, daß X el (x) = 1 f¨ ur alle x ∈ D. (22)

Man nennt die el eine Teilung der Eins auf D.

Beweis. Wir konstruieren zurecht eine C ∞ -Hutfunktion mit kompaktem Tr¨ager. Durch   1 f¨ ur |x| < 1 f (x) = exp x2 − 1 wird eine Funktion f ∈ C ∞ (] − 1, 1[) definiert, deren kte Ableitung die Form   1 (k) f (x) = rk (x) exp x2 − 1  mit rationalen rk (x) besitzt (Induktion!). F¨ ur x → ±1 geht exp x21−1 st¨arker gegen Null als jedes Polynom in x, also ist lim f (k) (x) = 0. Daher kann man f und die f (k) stetig x→±1

durch f (x) = f (k) (x) = 0

f¨ ur |x| ≥ 1

429 auf ganz R fortsetzen. Die so entstehende Funktion ist in ganz R beliebig oft differenzierbar und hat den Tr¨ager [−1, 1]. Dasselbe gilt auch f¨ ur die durch X g(x) := f (x)/ f (x − k) k∈Z

definierte Funktion g, die wohldefiniert ist, da die Summe f¨ ur jedes x ∈ R h¨ochstens zwei Terme 6= 0 hat und stets positiv ist. Nach Konstruktion gilt nun X g(x − z) = 1, g(x) ≥ 0 f¨ ur alle x ∈ R. (23) z∈Z

Durch hN z (x)

=

n Y j=1

g(N xj − zj )

(24)

∞ n werden nun Funktionen hN ager W¨ urfel mit Mittelpunkt z z ∈ C (R ) definiert, deren Tr¨ 2 und Seitenl¨ange N sind. F¨ ur gen¨ ugend große N liegt jeder solche W¨ urfel in einer Kugel von vorgegebenen Radius r, den wir sp¨ater w¨ahlen werden. Wegen (23) ist   n X X Y  hN ur alle x ∈ Rn . (25) g(N xj − zj ) = 1= z (x) f¨ j=1

z∈Zn

zj ∈Z

Da D kompakt ist, ist M := sup kxk endlich, f¨ ur x ∈ D tragen daher nur die endlich vielen x∈D

z ∈ Zn mit kzk∞ ≤ N M +1 bei. Bezeichnen wir die zugeh¨origen hN z mit el (l = 1, 2, . . . lmax ), so erhalten wir (22). Es bleibt, den Radius r so zu w¨ahlen, daß der Tr¨ager jedes el ganz im Definitionsbereich einer Karte liegt. Dazu nutzen wir die Tatsache aus, daß diese Definitionsbereiche eine of¨ fene Uberdeckung von Ω und daher auch von der kompakten Menge D bilden. Die fehlende Eigenschaft wird daher durch das folgende Resultat geliefert. ⊓ ⊓ ⊔ ⊔

23.15 Proposition (Lebesgue’sches Lemma) ¨ Ul (l ∈ L) sei eine offene Uberdeckung der kompakten Menge D. Dann gibt es ein r > 0, so daß jede Kugel vom Radius r ganz in einem Ul enthalten oder disjunkt zu D ist. Beweis. Zu jedem x ∈ D gibt es eine offene Menge Ul(x) , die x enth¨alt, und in Ul(x) eine abgeschlossene Kugel B[x; r(x)] um x. Die offenen Kugeln B(x; 13 r(x)) bilden ebenfalls eine ¨ offene Uberdeckung der kompakten Menge D. Nach Definition der Kompaktheit k¨onnen wir also endlich viele dieser Kugeln ausw¨ahlen, die D immer noch u ¨berdecken, etwa B(xk ; rk ), k = 1, . . . , m, und nach Konstruktion liegt B[xk ; 3rk ] noch ganz in Ul(xk ) . Wir zeigen nun, daß r = min rk die gew¨ unschte Eigenschaft hat. Offensichtlich ist n¨amlich r > 0. Ist nun B[x; r] eine beliebige Kugel mit B[x; r] ∩ D 6= ∅, so liegt ein Punkt x0 ∈ B[x; r] ∩ D in einer der Kugeln B(xk ; rk ), und wegen x¯ ∈ B[x; r]



|¯ x − x| + |x − x0 | + |x0 − xk | ≤ r + r + rk ≤ 3rk

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

430

liegt die Kugel B[x; r] in B[xk ; 3rk ] und daher in Ul(xk ) .

⊓ ⊔

Wir haben nun alle Konzepte bereit, die zur Integration u ¨ber Fl¨achen ben¨otigt werden. Wie bei Kurvenintegralen (die sich hier als Fall p = 1 wieder ergeben) k¨onnen wir zwei Arten von Fl¨achenintegralen definieren, ein skalares u ¨ber Funktionen und ein vektorielles u ¨ber p-Formen, und wie dort kommt es darauf an, die Unabh¨angigkeit von der speziellen Beschreibung der Fl¨ache nachzuweisen. Dies hat zur Folge, daß man f¨ ur das Integral von pFormen zus¨atzlich die Orientierbarkeit der Fl¨ache voraussetzen muß. (Kurven = 1-Fl¨achen sind stets orientiert!) 23.16 Satz Ω sei eine p-Fl¨ache. (i) F¨ ur jedes stetige Skalarfeld f : Ω → R mit kompaktem Tr¨ager ist das skalare Fl¨ achenintegral Z XZ p f (x)dS(x) := el (Φl (z))f (Φl (z)) gl (z)dz p (26) Ω

l

Ul

unabh¨angig von der Wahl der Teilung der Eins el auf Supp f mit Supp el ⊆ Ul und der zugeh¨origen Karten Φl : Ul → Ω, und definiert ein monotones lineares Funktional auf Cc (Ω). (ii) Ist Ω orientiert, so ist f¨ ur jede stetige p-Form ω = F (x) · dxp auf Ω mit kompakten Tr¨ager das orientierte Fl¨ achenintegral Z Z XZ p ω= F (x) · dx := el (Φl (z))ω(Φl (z), Φ′l (z))dz p (27) Ω



mit ω(x, A) =

l

X

Ul

FI (x) det AI:

|I|=p

f¨ ur x ∈ Ω, A ∈ Rn×p

(28)

unabh¨angig von der Wahl der Teilung der Eins el auf Supp f mit Supp eV l ⊆ Ul und der zugeh¨origen Karten Φl : Ul → Ω, und definiert ein lineares Funktional auf p Cc (Ω).

Beweis. Nach Proposition 23.14 gibt es stets eine Teilung der Eins el auf Supp f und zugeh¨orige Karten Φl : Ul → Ω mit Supp el ⊆ Ul . Angenommen, die dk bilden ebenfalls eine Teilung der Eins, und die Ψk : Vk → Ω sind zugeh¨orige Karten mit Supp dk ⊆ Vk . P (i) Wir f¨ ugen in das Integral u ¨ber Ul in (26) den Faktor 1 = dk (Φl (z)) ein und erhalten Z XZ X p p p dk (Φl (z))el (Φl (z))f (Φl (z)) gl (z)dz p . (29) el (Φl (z))f (Φl (z)) gl (z)dz = Ul

k

Ul

osung F¨ ur z ∈ Φ−1 l (Supp dk ∩ Supp el ) hat die Gleichung Ψk (y) = Φl (z) eine eindeutige L¨ y = Ξ(z) ∈ Vk , und nach dem Satz u ¨ber implizite Funktionen ist Ξ′ (z) = Ψ′k (y)−1 Φ′l (z), also Φ′l (z) = Ψ′k (y)Ξ′ (z).

(30)

431 Daher ist gl (z) = det Φ′l (z)T Φ′l (z) = det Ξ′ (z)T Ψ′k (y)T Ψ′k (y)Ξ′ (z) = det Ξ′ (z)gk (y) det Ξ′ (z). Nach der Transformationsregel f¨ ur Volumenintegrale ergibt sich daraus f¨ ur die Substitution y = Ξ(z) die Beziehung p p p gl (z)dz p = gk (y)| det Ξ′ (z)|dz p = gk (y)dy p . (31) Aus (29) folgt wegen Ψk (y) = Φl (z) daher XZ l

Ul

XZ p p el (Φl (z))f (Φl (z)) gl (z)dz = k,l

=

Vk

XZ k

Vk

X

X

p dk (Ψk (y))el (Ψk (y))f (Ψk (y)) gk (y)dy p . p dk (Ψk (y))f (Ψk (y)) gk (y)dy p .

Daher ist der Ausdruck (26) tats¨achlich unabh¨angig von der Teilung der Eins und den zugeh¨origen Karten. Daß ein monotones Funktional entsteht, folgt daraus, daß das Volumenintegral monoton ist √ und die Faktoren el und gl nichtnegativ sind. (ii) Hier geht der Beweis genau analog, nur daß man statt (31) die (aus (30) folgende) Beziehung X ω(Φl (z), Φ′l (z))dz p = FI (Φl (z)) det Φ′l (z)I: dz p =

= = =

|I|=p

X

|I|=p

X

|I|=p

X

|I|=p

X

FI (Φl (z)) det(Φ′l (z)Ξ′ (z))I: dz p

FI (Φl (z)) det(Φ′l (z)I: Ξ′ (z))dz p FI (Φl (z)) det Φ′l (z)I: det Ξ′ (z)dz p FI (Ψk (y)) det Ψ′k (y)I: dy p

|I|=p

= ω(Ψk (y), Ψk (y))dy p benutzen muß. Da in der Transformationsformel der Betrag der Determinante auftritt, sieht man, daß diese Herleitung nur dann g¨ ultig ist, wenn det Ξ′ (z) = det(Ψ′k (y)−1 Φ′l (z)) > 0 ist, was gerade durch die Orientierung gew¨ahrleistet wird. ⊓ ⊔

23.17 Proposition Es gilt Z Z p F (x) · dx ≤ kF (x)k2 dS(x), Ω



wobei F (x) als Vektor mit den Komponenten FI (x) aufgefaßt wird.

⊓ ⊔

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

432 Beweis. Es ist

X ′ p ′ p |ω(Φl (z), Φl (z))dz | = FI (Φl (z)) det Φl (z)I: dz |I|=p X ′ ≤ FI (Φl (z)) det Φl (z)I: dz p . |I|=p

Aus der Cauchy-Schwarz’schen Ungleichung und Proposition 9.18 ergibt sich weiter v   u u X X u det Φ′l (z)2I: dz p FI (Φl (z))2   |ω(Φl (z), Φ′l (z))dz p | ≤ t |I|=p

= kF (Φl (z))k2

sX

|I|=p

det(Φ′l (z)I: )2 dz p

q|I|=p = kF (Φl (z))k2 det(Φ′l (z)T Φ′l (z))dz p p = kF (Φl (z))k2 gl (z)dz p .

Die Behauptung folgt daraus mit Hilfe der Definitionen.

⊓ ⊔

⊓ ⊔

Mit Hilfe der allgemeinen Theorie von Kapitel 20–21 lassen sich die Integrale nun so vervollst¨andigen, daß auch bestimmte Funktionen mit nichtkompaktem Tr¨ager oder Unstetigkeiten integriert werden k¨onnen. Wir gehen hier aber nicht weiter darauf ein. 23.18 Definition Das durch das monotone lineare Funktional Z S:f → f (x)dS(x) Ω

f¨ ur meßbare Teilmengen M von Ω definierte Maß Z vol(M ) := χM (x)dS(x) Ω

heißt der p-Fl¨ acheninhalt (oder das p-Volumen) von M . Direkt aus der Definition ergibt sich (mit der trivialen Zerlegung der Eins 1): 23.19 Proposition Ist Ω ein durch die Karte Φ : U → Ω gegebenes Fl¨achenst¨ uck, so ist Z Z p f (x)dS(x) = f (Φ(z)) det(Φ′ (z)T Φ′ (z)dz p Ω

und

U

Z p det(Φ′ (z)T Φ′ (z)dz p . vol(Ω) = U

(32)

433 Damit lassen sich viele Fl¨achen durch geeignetes Zerschneiden berechnen. (Man muß dazu zeigen, daß die R¨ander das Maß Null haben. Das ist f¨ ur st¨ uckweise glatte R¨ander der Fall, wie wir bald sehen werden.) 23.20 Beispiel. Der Graph einer Funktion F : D ⊆ Rn → R (D offen) ist die Menge Ω= Durch Φ(x) =



x f (x)



 x f (x)

 x ∈ D ⊆ Rn+1 .

wird eine Karte Φ : D → Ω definiert. Wegen 



Φ (x) = ist



I det Φ Φ = det(I, ∇f ) ∇f T ′T





I ∇f (x)T



= det(I + ∇f (∇f )T ) = 1 + k∇f k22 ,

da die Rang 1 Matrix A = ∇f (∇f )T die Eigenwerte 0 (mit Vielfachheit n − 1) und k∇f k22 ¨ (einfach) hat (Ubungsaufgabe). Also ist vol(Ω) =

Z q D

1 + k∇f (x)k22 dxn .

(33)

23.21 Beispiel. Durch Rotation eines ebenen Wegs x : [α, ω] → R2 um die x1 -Achse entsteht die zweidimensionale Rotationsfl¨ache      x (t) 1     Ω =  x2 (t) cos φ  t ∈ [α, ω], φ ∈ [0, 2π] ⊆ Rn+1 .     x2 (t) sin φ

Durch Aufschlitzen und Wegnehmen des Rands erh¨alt man durch 

 x1 (t)   Φ(t, φ) =  x2 (t) cos φ  x2 (t) sin φ eine Karte Φ : U = ]α, ω[ × ]0, 2π[ → Ω, die bis auf eine zweidimensionale Nullmenge ganz Ω umfaßt. Man rechnet nun leicht nach, daß sich (32) zu vol(Ω) = 2π

Z

ω

x2 (t)kx(t)k ˙ 2 dt

α

vereinfacht, da sich die Integration u uhren l¨aßt. ¨ber φ explizit durchf¨

(34)

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

434

Der Abbildungsgrad Der Abbildungsgrad ist ein Konzept, das es erm¨oglicht, unter schwachen Voraussetzungen an eine vektorwertige Funktion F : Ω ⊆ Rn → Rn die Existenz von Nullstellen zu zeigen. Er verallgemeinert den Zwischenwertsatz im R1 , der Existenz (aber nicht unbedingt Eindeutigkeit) einer Nullstelle von f : [a, b] → R garantiert, falls f am Rand einen Zeichenwechsel hat, f (a)f (b) ≤ 0. Im Mehrdimensionalen ist der Rand komplizierter als im R1 , und man verlangt in der Regel, daß F (x) 6= 0 auf dem Rand ist. Man braucht außerdem eine Zusatzbedingung, die dem Zeichenwechsel im Eindimensionalen entspricht. Diese ist f¨ ur glatte Funktionen leicht aus der Betrachtung der Nulldurchg¨ange im Eindimensionalen zu erhalten. Man sieht, daß wenn an allen Nullstellen xi die Ableitung f ′ (xi ) 6= 0 ist, die Vorzeichen von f ′ (xi ) abwechselnd 1 und −1 sind. Die Summe der Vorzeichen nennt man den Abbildungsgrad. Der Abbildungsgrad im R1 ist also genau dann von Null verschieden, wenn am Rand ein Zeichenwechsel vorliegt. Bemerkungen von G"unter Mayer: Im Lemma von Sard wird C(F) in zweierlei Bedeutung benutzt: Einmal als Teilmenge der Bildmenge (s. 2. Zeile des Lemmas) und dann als Teilmenge des Definitionsbereichs (s. Textpassage unterhalb der Zeichnung). Die Frage nach der Darstellung vom Omega als Vereinigung abz"ahlbar vieler offener W"urfel ist meines Erachtens nicht in einem Satz abzuhandeln. F"ur Leser eines Buchs h"atte ich mir hier gr"ossere Ausf"uhrlichkeit gew"unscht. Die Skizze im Beweis des Lemmas habe ich "ubrigens nicht ganz verstanden. Die Volumenabsch"atzung eine Zeile dar"uber sollte ausf"uhrlicher hergeleitet werden. In der neuen Version ist F im Beweis zu Satz 25.3 doppeldeutig: einmal wird F f"ur eine Funktion von x und dann in der Homotopie als Funktion von t und x verwendet. [] Vor der Diskussion des Abbildungsgrads im Rn beweisen wir zuerst eine Hilfsaussage, die uns erlaubt, eine zus¨atzliche Regularit¨atsannahme zu machen. 23.22 Satz (Lemma von Sard). Ω ⊆ Rn seien offen und beschr¨ankt. Ist F ∈ C 1 (Ω, Rn ), so hat die Menge C(F ) = {F (x) | x ∈ Ω, F ′ (x) singul¨ar} das Maß Null.

435 Beweis. Sei ε > 0. Nach dem Mittelwertsatz gibt es ein δ > 0 mit kF (x) − F (x0 ) − F ′ (x0 )(x − x0 )k ≤ εkx − x0 k f¨ ur alle x, x0 ∈ Ω mit kx − x0 k ≤ δ (gleichm¨aßige Stetigkeit der Ableitung). Wir k¨onnen (warum?) Ω als Vereinigung abz¨ahlbar vieler offener W¨ urfel Ωk (k = 1, 2, . . .) der Seitenl¨ange rk darstellen. Sei Lk = sup kF ′ (x)k. x∈Ωk

Dann ist kF (x) − F (y)k ≤ Lk kx − yk f¨ ur x, y ∈ Ωk .

Wir zerlegen Ωk in N n W¨ urfel der Seitenl¨ange rk /N und w¨ahlen N so groß, daß rk /N < δ. Liegt x0 ∈ C(F ) in einem dieser W¨ urfel Q und ist F ′ (x0 )h = 0, so ist vol F (Q) ≤ const ε

h 6= 0,

rk  rk n−1 · Lk N N

........ ........ ........ ........ ........ ........ . ........ ........ ..... ........ ........ .............. ....... ........ . ....... ........ ....... ..... ........ ........ ........ . .... ........ ... ............. ........ ....... ....... . ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...... ....... ...... ....... ...... ....... ...... ....... ...... . ....... ...... ...... ...... ...... ...... ....

h

·

(vgl. Zeichnung!) und daher vol F (C(F ) ∩ Ωk ) ≤ const εrkn Lkn−1 Da ε > 0 beliebig war, folgt vol F (C(F ) ∩ Ωk ) = 0 f¨ ur alle k. Daher ist auch vol C(F ) ≤

∞ X k=1

vol(C(F ) ∩ Ωk ) = 0. ⊓ ⊔ ⊓ ⊔

23.23 Folgerung Jede stetige Funktion F : Ω ⊆ Rn → Rn kann beliebig genau durch stetig differenzierbare Funktionen Fl : Ω → Rn mit C(Fl ) = ∅ approximiert werden. ⊓ ⊔ 23.24 Satz Ω ⊆ Rn sei offen und beschr¨ankt. Dann gibt es genau eine Abbildung, die jeder stetigen Funktion F : Ω → Rn mit F (x) 6= 0 f¨ ur alle x ∈ ∂Ω eine ganze Zahl d(F, Ω) zuordnet, die die folgenden Eigenschaften hat:

(35)

436

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

(i) Ist F ∈ C 1 (Ω, Rn ), ist F ′ (x) f¨ ur alle Nullstellen x von F nichtsingul¨ar, und gilt (35), so ist X d(f, Ω) = sgn(det F ′ (x)), (36) F (x)=0

und diese Summe hat nur endlich viele Glieder. (ii) Ist F ∈ C([0, 1] × Ω, Rn ) und ist F (t, x) 6= 0 f¨ ur alle t ∈ [0, 1],

x ∈ ∂Ω,

(37)

so ist d(F (t, ·), Ω) unabh¨angig von t. Man nennt F ∈ C(Ω, Rn ) randfrei, wenn (35) gilt; dann heißt d(f, Ω) der Abbildungsgrad von F in Ω, und d(F, Ω, y0 ) := d(F − y0 , Ω) der Abbildungsgrad von F in Ω bei y0 ∈ Ω. Die Eigenschaft (ii) nennt man die Homotopieinvarianz des Abbildungsgrads. Beweis. Gelten die Voraussetzungen von (i), so nennen wir F regul¨ar und definieren den Abbildungsgrad durch die Formel (36). Da F regul¨ar ist, gibt es nach dem Satz u ¨ber im∗ plizite Funktionen, angewandt auf F (x) − y = 0, zu jeder Nullstelle x von F eine offene Umgebung U (x∗ ), in der F ′ (x) nichtsingul¨ar und F eindeutig und stetig umkehrbar ist. Dann ist det F ′ (x) 6= 0, wegen der Stetigkeit der Determinate also sgn(det F ′ (x)) = sgn(det F ′ (x∗ )) f¨ ur x ∈ U (x∗ ).

(38)

Wegen der eindeutigen Umkehrbarkeit liegt in U (x∗ ) keine weitere Nullstelle von F . Daher k¨onnen sich die Nullstellen von F nirgends h¨aufen, und da Ω beschr¨ankt ist, ist N := {x∗ ∈ Ω | F (x∗ ) = 0} endlich. Wir k¨onnen daher die Umgebungen U (x∗ ) so klein w¨ahlen, daß sie paarweise disjunkt sind. F (U (x∗ )) ist Urbild der offenen Menge U (x∗ ) unter der stetigen Umkehrabbildung F −1 , und ist daher selbst offen (Proposition 13.11(i)); außerdem liegt 0 = F (x∗ ) in F (U (x∗ )). Da F randfrei ist, gibt es einen W¨ urfel Q mit Mittelpunkt 0, der zu F (∂Ω) disjunkt ist und in allen F (U (x∗ )) liegt. Wir wollen nun den Abbildungsgrad durch ein Integral ausdr¨ w¨ahlen wir eine Rucken. Dazu n ∞ n beliebige Hutfunktion e ∈ C (R , R) mit Tr¨ager in int Q und Q e(z)dz = 1. Aus (36) und

437 (38) folgt dann Z e(F (x)) det F ′ (x)dxn = Ω

= = = =

XZ

e(F (x)) det F ′ (x)dxn ∗ x∗ ∈N U (x ) Z X ′ ∗ sgn(det F (x )) e(F (x))| det F ′ (x)|dxn ∗ x∗ ∈N ZU (x ) X sgn(det F ′ (x∗ )) e(z)dz n ∗ x∗ ∈N ZF (U (x )) X sgn(det F ′ (x∗ )) e(z)dz n Q ∗ ∈N xX ′ ∗ sgn(det F (x )), x∗ ∈N

also d(F, Ω) =

Z

e(F (x)) det F ′ (x)dxn .

(39)



In dieser Formel k¨onnen wir nun die bisherige Forderung, daß F ′ (x) nichtsingul¨ar ist, fallen lassen. Denn nach dem Lemma von Sard gibt es eine f¨ ur jedes stetig differenzierbare F eine Nullfolge y1 , y2 , . . . ∈ Rn \C(F ) (w¨ahle in jeder Kugel B(0; 2−l ) einen Punkt yl ). Wir setzen F l (x) = F (x) − yl ,

el (z) = e(z + yl ).

(40)

Nach Definition von C(F ) ist dann (F l )′ (x) f¨ ur alle Nullstellen von Fl nichtsingul¨ar. F¨ ur l l gen¨ ugend große l ist mit F auch F randfrei, und e ist auch eine Hutfunktion mit Tr¨ager in int Q. Daher ist Z l d(F , Ω) = el (F l (x)) det(F l )′ (x)dxn ZΩ = e(F (x)) det F ′ (x)dxn , Ω

unabh¨angig von l (gen¨ ugend groß), und daher (39) eine sinnvolle auf beliebige randfreie C 1 Funktionen erweiterte Definition des Abbildungsgrads. Da d(F, Ω) wegen (36) im regul¨aren Fall ganzzahlig ist, gilt dasselbe nat¨ urlich jetzt f¨ ur beliebige randfreie F ∈ C 1 (Ω, Rn ). Ist nun F ∈ C([0, 1] × Ω, Rn ) eine Homotopie mit der Eigenschaft (37) und ist F (t, ·) ∈ C 1 (Ω, Rn ), so ist d(F (t, ·), Ω) =

Z

(41)

e(F (t, x)) det Fx (t, x)dxn



offenbar stetig von t abh¨angig. Da die linke Seite ganzzahlig ist, muß nach dem Zwischenwertsatz d(F (t, ·), Ω) konstant sein. Daher gilt (ii), falls (41) erf¨ ullt ist.

Wir m¨ ussen uns jetzt noch von der Differenzierbarkeitsforderung befreien. Dazu approximieren wir ein beliebiges randfreies F ∈ C(Ω, Rn ) durch Funktionen Fl ∈ C 1 (Ω, Rn ) mit sup kFl (x) − F (x)k ≤ δ := x∈Ω

1 inf kF (x)k. 2 x∈∂Ω

(42)

438

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

Nach dem Approximationssatz von Weierstraß (Satz 13.34) ist das stets m¨oglich, da Ω beschr¨ankt ist. Aus (1 − t)Fk (x) + tFl (x) = 0

f¨ ur ein x ∈ ∂Ω, t ∈ [0, 1] folgt dann

2δ ≤ kF (x)k = k(1 − t)(F (x) − Fk (x)) + t(F (x) − Fl (x))k ≤ (1 − t)kF (x) − Fk (x)k + tkF (x) − Fl (x)k ≤ (1 − t)δ + tδ = δ, Widerspruch. Daher gilt (37) f¨ ur F (t, x) = (1 − t)Fk (x) + tFl (x), und wir finden d(Fk , Ω) = d(F (0, ·), Ω) = d(F (1, ·), Ω) = d(Fl , Ω).

Daher ist der Abbildungsgrad d(Fl , Ω) unabh¨angig von der Wahl von Fl ∈ C 1 (Ω, Rn ) mit (42) und wir k¨onnen diesen Wert mit d(F, Ω) bezeichnen. Dies definiert den Abbildungsgrad f¨ ur beliebige randfreie F ∈ C(Ω, Rn ). Ein analoges Approximationsargument zeigt nun, daß die zum Beweis von (ii) benutzte Zusatzbedingung (41) u ussig ist. ¨berfl¨ Offenbar hat man bei der obigen Konstruktion des Abbildungsgrads keinerlei Freiheiten, so daß der Abbildungsgrad eindeutig bestimmt ist. ⊓ ⊓ ⊔ ⊔ Wir ziehen nun drei f¨ ur Anwendungen wichtige Folgerungen. 23.25 Satz Ein randfreies F ∈ C(Ω, Rn ) hat mindestens |d(F, Ω)| Nullstellen in Ω. Beweis. Satz 23.24(i) + Sard. ⊓ ⊔

⊓ ⊔

Bemerkung: Im Rn (n > 1) kann d(F, Ω) beliebige ganzzahlige Werte annehmen, im R1 nur 0, ±1.

Bemerkung: Analytische Funktionen F : Cn → Cn , als reelle Funktionen F : R2n → R2n aufgefaßt, haben stets [ warum?] det F ′ (x) ≥ 0. In diesem Fall ist d(F, Ω) die exakte Zahl der Nullstellen (entsprechend ihrer Vielfachheit gez¨ahlt).

23.26 Satz Ω sei offen und beschr¨ankt. Hat F0 ∈ C 1 (Ω, Rn ) eine eindeutige Nullstelle x0 ∈ Ω, ist F0′ (x0 ) nichtsingul¨ar, und gibt es eine Homotopie zwischen F0 und F ∈ C(Ω, Rn ) mit F (t, x) 6= 0 f¨ ur 0 ≤ t < 1, x ∈ ∂Ω, (43) so hat F mindestens eine Nullstelle in Ω.

Beweis. d(F0 , Ω) = ±1, Homotopieinvarianz, und ausw’ahlen einer Teilfolge tl → 1. ⊓ ⊔ H¨aufig kann man f¨ ur F0 eine affine Funktion w¨ahlen!

⊓ ⊔

439 23.27 Satz (Fixpunktsatz von Brouwer) Ist Ω sternf¨ormig und beschr¨ankt, und ist F : Ω → Ω stetig, so hat F mindestens einen Fixpunkt. (Ω hom¨oomorph zur Einheitskugel reicht.) Beweis. Ω sei sternf¨ormig bez¨ uglich x0 ∈ Ω. Wir betrachten die Homotopie F (t, x) = tF (x) + (1 − t)x0 − x. F (0, x) = x0 − x hat eine eindeutige Nullstelle x0 und die Ableitung F ′ (x0 ) = −I ist nichtsingul¨ar. F¨ ur 0 < t < 1 und F (t, x) = 0 ist (wegen der Sternf¨ormigkeit von Ω) x = x0 + t(F (x) − x0 ) ∈ Ω, also x ∈ / ∂Ω. Daher gilt (43). Nach Satz 23.26 hat also F (1, x) = 0 eine L¨osung x ∈ Ω, und diese erf¨ ullt F (x) − x = 0, ist also ein Fixpunkt von F. ⊓ ⊓ ⊔ ⊔ Im Unterschied zum Banachschen Fixpunktsatz braucht man keine Kontraktionseigenschaft nachzuweisen, verliert allerdings daf¨ ur die Eindeutigkeitsaussage.

¨ ¨ KAPITEL 23. FLACHEN UND FLACHENINTEGRALE

440

[ der n¨achste Satz ist u ussig!!!] ¨berfl¨ 23.28 Satz Hat f ∈ C ∞ (Rn ) kompakten Tr¨ager und gilt Z f (x)dxn = 0, Rn

so gibt es ein F ∈ C ∞ (Rn , Rn ) derart daß f (x) = ∇ · F (x). Ist Q ein Quader, der Supp f enth¨alt, so kann man F so w¨ahlen, daß auch Supp F ⊆ Q. Beweis. Sei Q ein Quader, dessen Inneres den Tr¨ager von f enth¨alt. F¨ ur n = 1, Q = (a, b), w¨ahlt man einfach Z x f (t)dt.

F (x) =

a

˜ Wir nehmen daher an, der Satz gilt f¨ ur n−1 statt n, und setzen Q = Q×]a, b[ und x˜ = x1:n−1 . F¨ ur Z b ˜ f (˜ x) = f (˜ x, xn )dxn a

gilt dann

Z

˜ Q

f˜(˜ x)d˜ x

n−1

=

Z

f (x)dxn = 0,

Q

˜ Rn−1 ) mit nach Induktionsannahme gibt es also ein F˜ ∈ C ∞ (Ω, f˜(˜ x) = ∇ · F˜ (˜ x). Nun w¨ahlen wir eine Hutfunktion e ∈ C ∞ (R) mit Tr¨ager in [a, b] und setzen Z xn   ˜ Fn (x) := f (˜ x, t) − e(t)f (˜ x) dt.

Rb a

e(t)dt = 1 und

a

Dann ist Fn (˜ x, a) = 0 und Fn (˜ x, b) =

Z

a

b

f (˜ x, t)dt −

Z

a

b

e(t)dtf˜(˜ x) = f˜(˜ x) − f˜(˜ x) = 0,

und wegen ∇n Fn (x) = f (˜ x, xn ) − e(xn )f˜(˜ x) ist f (x) = f (˜ x, xn ) = e(xn )∇ · F˜ (˜ x) + ∇n Fn (x) X = ∇k Fk (x) = ∇ · F (x)

mit Fk (x) = e(xn )F˜ (˜ x) f¨ ur k < n.

⊓ ⊔

⊓ ⊔

Index Absolute Konvergenz, 237 absoluten Funktionenraum, 359 Abstand, 61 abzahlbar, 52 Additionstheoreme, 257 adjungierte Abbildungen, 271 Adjunkte, 155 affine Funktion, 108 affine Quadrik, 108 Algebra, 396 allgemeines Assoziativgesetz, 57 allgemeines Distributivgesetz, 57 allgemeines Kommutativgesetz, 56 alternierend, 141 alternierende Differentialform, 180 alternierende Reihe, 246 Anordnung einer Summe, 237 Anstieg starkster/schwachster, 112 antikommutativ, 162 Antisymmetrie, 19 Approximation harmonische, 290 quadratisch, 117 Approximationssatz von Weierstras, 228 aquidistant, 53 Aquivalenz von Normen, 216 Arcus Cosinus, 259 Arcus Sinus, 259 Arcus Tangens, 259 Argument (arg), 260 Arithmetische Folgen, 53 arithmetische Mittel, 21 Assoziativgesetz allgemeines, 57 Assoziativgesetze, 3 asymptotische Entwicklung, 84 Aufzahlung, 52

AI · , 148 C k -Weg, 82 C r (Ω, W ), 115 L1 , 372 QR-Zerlegung, 271 ǫ-Umgebung, 61 πn , 410 σ-Algebra, 396 p-Linearform, 139 p-Tupel, 139 F, 105 (Borel-)Mas, 392 (abgeschlossene) Kugel, 61 (unendliche) Reihe, 237 (unendliche) Summe, 237 1-Form, 344 1-Norm, 369 Regeln, 370 Abbildung, 9 beschrankt, 106 eingeschrankt auf, 10 abgeschlossen, 209, 212 Kugel, 111 abgeschlossen und beschrankt, 212 abgeschlossenes Intervall, 24 Ableitung, 65, 107 ausere, 182 implizit definierter Funktionen, 114 k-te, 82 logarithmisch, 263 partielle, 109 von konvergenten Folgen, 231 von Potenzreihen, 250 Ableitung Sinus/Kosinusreihe, 256 Ableitung von Reihen, 247 Ableitungsregeln, 73 Abschatzung konvergenter Summen, 239 441

442 aufgeschlitzte Zahlenebene, 78 ausere Ableitung, 182 ausere Produkt, 162 Banach Fixpunktsatz von, 223 Banachraum, 170, 217 Bernoulli-Ungleichung, 56, 221 beschrankt, 16, 23, 106, 212 beschrankte Funktion, 228 bestimmte Integral, 80 Betrag, 15 Betragsaxiome, 16 Betragseigenschaften, 21 Beweis durch Widerspruch (Schema), 7 Beweiserlauterung, 5 Bijektion, 10 Bild, 9, 10 Bilinearformen, 140 Binomialkoeffizienten, 54 Binomische Formeln, 58 Binomische Reihe, 267 binomischen Formeln, 7 Bogenlange, 338 Bolzano-Weierstras Satz von, 171, 217 Breitenkreise, 419 Cauchy-Folge, 170 Cauchy-Schwarz’sche Ungleichung, 111, 271 charakteristische Funktion, 358, 385 charakteristische Gleichung, 292 Cosinus, 256 Cosinusreihe, 256 Cramer’sche Regel, 156 Dachprodukt, 162 antikommutativ, 162 Dampfungsmatrix, 287 Daniell-Funktional, 390 definit positiv/negativ, 288 Definitionsbereich, 9 Determinante, 147, 161 Determinanten Umformungsregeln, 154 Determinantenform, 147

INDEX Dezimalziffern, 29 Diagonalmatrix, 154 dicht, 209 Differentialform alternierend, 180 Differentialgleichung lineare, 236 Differentialoperatoren, 176 Differentialoperatoren und Differentialformen, 175 Differentialrechnung Mittelwertsatz, 220 Differenz, 3 differenzierbar, 107 Dirichlet, 275 disjunkt, 3 diskret, 392 Distributivgesetz allgemeines, 57 spezielles, 57 Distributivgesetze, 3 divergent, 163 Divergenz, 183 Doppelsummen, 57 Dreiecksmatrix, 154 Dreiecksungleichung, 22, 59 duale Basis, 160 Durchschnitt, 3 dynamische System, 105 Eigenfrequenz, 287 Eigenschwingungen, 291 Eigenwerte, 284, 292 Eigenwertproblem quadratisch, 291 einfach zusammenhangend, 234 Einschrankung, 10 einseitiger Grenzwert, 164 Elementare Funktionen, 253 endlich, 51 endlich Folge, 52 Entwicklungssatz von Laplace, 152 Euklidische Kugel, 111 exakt, 182 Exponentialansatz, 284 Exponentialfunktion, 253

INDEX Extrema mit Nebenbedingungen, 422 Extremwert, 215 Fakultat, 54 Familie, 52 Glieder einer, 52 fast alle, 163 fast uberall, 371 fast uberall gleich, 369 Fatou Lemma von, 380 Fehlerabschatzung, 223 Fehlerintegral von Gaus, 269 Felder, 105 Feldlinien, 105 Finite-Elemente-Methoden, 290 Fixpunkt, 223 Fixpunktsatz von Banach, 223 Flache, 401 Flachen und Flachenintegrale, 419 Folge arithmetische, 53 endliche, 52 Fakultaten, 54 geometrische, 54 harmonische, 53 monoton wachsend (fallend), 165 reelle, 52 unendliche, 52 von Teilprodukten, 54 von Teilsummen, 53 Folge, konvergent (divergent), 163 Folgen konvergente (Bsp), 166 Folgen, Summen und Produkte, 51 Fortsetzung periodisch, 278 Fourierintegral, 281 Fourierkoeffizienten, 274 Fourierreihe, 274 Fourierreihe periodischer Funktion, 276 Fubini Satz von, 398 Funktion, 62 (stetig) differenzierbar, 107 affine, 108

443 beschrankt, 106, 228 charakteristische, 358, 385 harmonisch, 189 implizite, 420 integrierbar, 372 kontrahierend, 223 polynomial, 228 rotationssymmetrisch, 111 separabel, 398 stetige, 62 stuckweise monoton, 274 stuckweise stetig, 275 Funktion, periodisch, 273 Funktion,Potenzreihendarstellung, 250 Funktional lineares, 159 monotones lineares, 359 Funktionenfolge Grenzwert, 228, 371 Funktionenverband, 359 Gammafunktion, 406 ganzzahlig, 26 ganzzahligen Intervalle, 27 Gaus’sche Normalverteilung, 411 Gausquadratur, 271 Gaussche Fehlerintegral, 269 Gebiet, 106, 233 gedampfte erzwungene Schwingung, 283 Geometrische Reihe, 238 geschlossen, 65, 182 glatt, 65 gleich, 2 Gleichgewichtslage, 288 gleichmasig, 371 gleichmasig konvergent, 228 gleichmasig stetig, 222 gleichmasige Stetigkeit, 372 Glieder, 52 globales Maximum/Minimum, 214 Grad, 55 Gradient, 108 Gradmas, 261 Grenzwert, 163, 228, 371 Grenzwerte, 163 griechische Alphabet, 1

444 groser gleich, 16 Grundformeln fur Integrale, 268 halboffenes Intervall, 24 harmonische Analyse, 273 harmonische Approximation, 290 Harmonische Folge, 53 harmonische Funktionen, 189 Haufungspunkt, 169 Hauptsatz der Thermodynamik, 345 Hausdorffraum, 62 Heine-Borel Satz von, 217 Hermite-Polynome, 271 Hessematrix, 117, 288 Hilbertraum, 271 Hohenlinien, 105 homoomorph, 234 Homoomorphismus, 234 homotop, 233 Homotopie, 233 Hooke’sches Gesetz, 283 Hospital, 168 Hulle, 209 Hutfunktion, 227 √ i = −1, 18 Imaginarteil, 18 implizite Funktionen, 420 Indexmenge, 52 indizierte Familie, 52 Induktion vollstandige, 29 Induktionsbeweis, 29 Induktionsprinzip, 29 Infimum, 23 injektiv, 10 inkommensurabel, 281 inkongruent, 273 Innere, 209 innerer Punkt, 61 int, 209 Integral bestimmtes, 80 Daniell-, 375 vervollstandigtes, 375 Integrale

INDEX Grundformeln, 268 Integralrechnung Mittelwertsatz, 218 Integration patrielle, 82 scheibenweise, 407 von Potenzreihen, 250 Integration von Reihen, 247 Integrationsregeln elementare, 81 integrierbar, 80, 372 lokal, 392, 410 integrierbar uber, 402 Integritatsbereich, 7 Intervall, 24 abgeschlossenes, 24 echtes, 24 ganzzahlig, 27 halboffenes, 24 offenes, 24 unechtes, 25 Invarianz, 16 Invarianz des Volumens, 415 Inverse, 4, 10 Inversion, 143 invertierbar, 151 Involution, 16 irrational, 26 Isometrien, 271 Jacobi-Identitat, 177 k-te Ableitung, 82 kanonischen Vertauschungsrelationen, 178 Kardinalitat, 52 Karush-Kuhn-Tucker, 424 Kegelschnitt, 108 Kettenregel, 74, 110, 114 kleiner gleich, 16 Koeffizienten, 55 von Funktion aus Potenzreihe, 250 Kommutativer Ring, 6 Kommutativgesetz, 5 allgemeines, 56 Kommutator, 176 kompakt, 211, 212 komplexe Zahlenebene, 15

INDEX kongruent, 273 Konjugation, 15 Konjugationsaxiome, 16 konjugierter Punkt, 15 konservatives Vektorfeld, 341 konstante Approximation, 72 kontrahierend, 223 konvergent, 163 fast uberall, 371 gleichmasig, 228, 371 im Mittel, 371 in der 1-Norm, 371 punktweise, 228, 371 konvergente Folgen (Bsp), 166 konvergente Majorante, 240 Konvergenz absolute, 237 lineare, 166 majorisierte (Satz), 380 monotone (Satz), 380 unendliche Reihen, 237 Konvergenzkreis, 249 Konvergenzkriterium, 240, 242, 245 Konvergenzradius, 249 konvergiert von oben, 358 konvergiert von unten, 358 konvex, 222 Koordinaten, 142, 158 Koordinatendarstellung, 180 Korper, 4 Korper der komplexen Zahlen, 17 Korperaxiome, 4 Kosinus, 256 Kosinusreihe, 256 Kreisfrequenz, 273 Kreiszahl, 258 kritischer Punkt, 215 Kugel, 61 Kugelkoordinaten, 419 Kurve, 333 Kurven Zerlegung, 334 Kurvenintegral, 333 Kurvenintegrale, 333 Kurzungsregel, 5 Kurzungsregeln, 7

445 l’Hospital, 168 labiles Gleichgewicht, 288 Lagrange-Funktion, 422, 425 Lagrange-Multiplikator, 422 Lagrange-Restglied in Taylorentwicklung, 220 Landau-Symbole, 69 Lange, 111, 271, 401 Langenkreise, 419 Laplace Entwicklungssatz von, 152 Laplace-Operator, 189 Laplaceoperator, 189 Lebesgue Satz von, 413 leere Menge, 2 leere Summe, 53 leeres Produkt, 54 Legendre-Polynome, 271 Leibniz-Kriterium, 245 Lemma von Fatou, 380 Lemma von Poincar´e, 188 Lemma von Urysohn, 387 Levi-Civita-Tensor, 143 Lie-Algebra-Gesetze, 176 lim inf, 169 lim sup, 169 Limes, 163 lineare Approximation, 72 lineare Differentialgleichung, 236 lineare Konvergenz, 166 lineare Operatoren, 176 lineare Selbstabbildung, 161 lineare Substitution, 414 lineares Funktional, 159 Linearform, 159 Linearformen, 140 linearisieren, 73 Linearisierung, 114 Linienelement, 334 Lipschitz-Konstante, 222 Lipschitz-stetig, 222 Logarithmische Ableitung, 263 Logarithmus, 262 Abschatzung, 264 logischen Zeichen, 2

446 lokal integrierbar, 392 lokalkompakt, 385 Losungen von Differentialgleichungen, 281 Machtigkeit, 52 Majorantenkriterium, 240 Mannigfaltigkeit, 420 Mas Borel, 392 Massenmatrix, 287 Mastheorie, 385 Mathematische Strukturen, 1 Matrix, 142 Adjunkte, 155 invertierbar, 151 Maximum, 25, 288 global/lokal, 214 Maxwell-Gleichungen, 189 Menge, 2 abgeschlossen, 209 abzahlbar, 52 abzahlbar unendlich, 52 dicht, 209 endliche, 51 homoomorph, 234 kompakt, 211 konvex, 222 leere, 2 mesbar, 394 offen, 209 unendliche, 52 mesbar, 392, 394, 396 Minimum, 25, 288 global/lokal, 214 Minkowski-Metrik, 141 Mittelwertsatz der Differentialrechnung, 220 Mittelwertsatz der Integralrechnung, 218 modulo, 273 Monom, 228 monoton, 165 monoton fallend, 79 monoton wachsend, 79 monotones lineares Funktional, 359 Nabla, 108 naturliche Zahl, 26 negativ, 20

INDEX Neutrale Elemente, 3 nichtnegativ, 16 Niveauflachen, 105 Niveaulinien, 105 Norm Unendlich-, 59 Normale, 422 Normaxiome, 59 Normen Aquivalenz der, 216 normierter Raum, 60 Nullfolge, 167 Nullmenge, 369 Nullpolynom, 55 Nullstelle, 215 Nullteilerfreier Ring, 7 Observable, 176 offen, 209 Kugel, 111 offene Kugel, 61 offene Uberdeckung, 211 offenes Intervall, 24 Operatoren lineare, 176 Orbitale, 176 Ordnungseigenschaften, 19 strikte, 21 orthogonale Gruppe, 271 orthogonale Projektion, 271 p-dimensionale Mannigfaltigkeit, 420 p-Flache, 420 p-Flachenstuck, 420 p-Form, 141, 145 exakt (=total), 182 geschlossen, 182 stetig (differenzierbar), 180 Paar, 139 Parallelelepipedvolumen, 415 Parallelotopvolumen, 415 Parameterdarstellungen, 333 Parametertransformation bei Wegen, 74 Partialbruchzerlegung, 268 Partielle Integration, 82 partielle Integration, 416 partiellen Ableitungen, 109

INDEX periodisch, 273 periodische Fortsetzung, 278 Periodische Funktionen, 273 Permutation, 141 Poincar´e Lemma von, 188 Polarkoordinaten, 110, 260 Polarkoordinaten (Bsp), 416 Polynom, 55 polynomiale Funktion, 228 positiv, 20 Positive Vertraglichkeit mit ·, 19 Potentielle Energie (Bsp), 112 Potenz, 264 Potenzen, 54 Potenzgesetze, 55 Potenzreihe, 248 Funktionsdarstellung, 250 Integration/Ableitung, 250 Prioritat von Operationen, 4 Produkt, 54 leeres, 54 Produktformel, 150 Produktregel, 177 Punkt innerer, 61 konjugierter, 15 kritisch, 215 stationar, 215 Punkte, 60, 62 punktweise, 371 punktweise konvergent, 228 Quader, 403 Quadrat, 4 Quadratische Approximation, 117 quadratischen Eigenwertproblem, 291 Quadrik affine, 108 quasiperiodisch, 281 Quellstarke, 184 Radius, 61 Rand, 209 Randpunkt, 209 rational, 26 Raum

447 normierter, 60 Raume und Wege, 59 Realteil, 18 Rechenregeln fur Korper, 8 Rechenregeln fur Reihen, 246 Rechenregeln fur Ringe, 5 Rechteckregel, 337 reell, 16 reellen Folge, 52 Reflexivitat, 19 Regeln fur 1-Norm, 370 Reihe, 237 alternierend, 246 binomische, 267 geometrische, 238 Reihen Integration/Ableitung, 247 Regeln fur konvergente, 246 Relation, 2 Resonanz, 287 Richtungsableitung, 108 Vertauschbarkeit, 116 Riemannsche Summen, 335 Ring, 3 kommutativ, 6 nullteilerfrei, 7 Rechenregeln fur, 5 Ringaxiome, 3 Rotation, 185, 271 rotationssymmetrisch, 111 Sakulargleichung, 292 Sattelpunkt, 215 Satz uber implizite Funktionen, 420 Satz von Bolzano-Weierstras, 217 Satz von der majorisierten Konvergenz, 380 Satz von der monotonen Konvergenz, 380 Satz von Fubini, 398 Satz von Heine-Borel, 217 Satz von Lebesgue, 413 scheibenweise Integration, 407 Schranke, 16, 23 obere (untere), 23 Schwingung gedampft erzwungen (Bsp), 283 gedampft harmonisch (Bsp), 285

448 Sekante, 65 Selbstabbildung lineare, 161 semidefinit positiv/negativ, 288 separabel, 398 Signum (sgn), 144 Sinus, 256 Sinusreihe, 256 Skalar, 142 Skalare, 60 skalare Kurvenintegral, 333 Skalarfeld, 105 Skalarprodukt, 141, 271 Spaltenvektoren, 59 Spatprodukt, 141 spezielles Distributivgesetz, 57 Spiegelung, 271 stabiles Gleichgewicht, 288 Stammfunktion, 80 von Folge von Wegen, 232 stationarer Punkt, 215 Steigung, 65 stetig, 62 gleichmasig, 222 Lipschitz-, 222 stetig differenzierbar, 65, 107 Stirlingsche Formel, 266 Strecke, 67 Stromlinien, 105 stuckweise differenzierbar, 275 stuckweise monoton, 274 stuckweise stetig, 275 Substitution lineare, 414 Substitutionsregel, 81, 416 Summe, 53 leere, 53 unendliche, 237 Superpositionsprinzip, 281 Supp, 385 Supremum, 16, 23 Supremumsnormen, 106 surjektiv, 10 Sym, 141 symmetrisch, 141

INDEX Tangens, 259 Tangente, 65 Taylorentwicklung, 83, 178 Lagrange-Restglied, 220 Teiluberdeckung, 211 Teilfamilie, 52 Teilfolge, 169 Teilmenge, 2 beschrankte, 16 nach oben (unten) beschrankt, 23 Teilprodukte, 54 Teilsummen, 53 Tensor, 142, 158 Tensoren und Determinanten, 139 Tensorfeld, 105 Thermodynamik (Bsp), 345 Topologie, 209 total, 182 Trager, 385 Transitivitat, 19 Transposition, 143 Treppenfunktion, 365 Trilinearformen, 140 Tripel, 139 Uberdeckung, 211 Umformungsregeln fur Determinanten, 154 Umgebung, 61 Umgebung,relativ zu, 61 Umkehrabbildung, 10 Unendlich-Norm, 59 Unendlich: ∞, 24 unendliche Folge, 52 unendliche Reihen, 237 Ungleichung von Cauchy-Schwarz, 111 Unterraume, 271 Urbild, 9, 10 Urysohn Lemma von, 387 Vektor, 142 Vektorfeld, 105 konservativ, 341 vektorielle Kurvenintegral, 333 Vereinigung, 3 Vertauschungsrelationen

INDEX kanonische, 178 Vertraglichkeit mit +, 19 vervollstandigte Integral, 375 vollstandige Induktion, 29 Volumen, 401 Parallelotop/Parallelepiped, 415 Volumenintegral, 402 Volumenintegrale, 401 Volumeninvarianz, 415 Weg, 65 geschlossen, 65 glatt, 65 homotop, 233 Wegunabhangigkeit, 342, 344 wegzusammenhangend, 233 Weierstras Approximationssatz von, 228 Winkel, 261, 271 Wirbeldichte, 185 Wurzel, 77 Zahl ganze, 26 irrationale, 26 naturliche, 26 nichnegativ, 16 rationale, 26 reelle, 16 Zahlen, 15, 16 Zahlenebene,aufgeschlitzt, 78 Zahlfolge, 52 Zeichenumkehr, 19 Zerlegung von Kurven, 334 Zwangsbedingungen, 419 Zwischenwertsatz, 75

449